Déployer un processus de transformation de données entre MongoDB Atlas et Google Cloud

Last reviewed 2023-12-13 UTC

Ce document explique comment déployer une transformation de données entre MongoDB Atlas et Google Cloud. Dans ce document, vous déployez un processus d'extraction, de transformation et de chargement (ETL) de données MongoDB Atlas vers BigQuery.

Ces instructions sont destinées aux administrateurs de données qui souhaitent utiliser BigQuery pour effectuer des analyses complexes sur les données opérationnelles stockées dans MongoDB Atlas. Vous devez connaître MongoDB Atlas, BigQuery et Dataflow.

Architecture

Le schéma suivant illustre l'architecture de référence que vous utilisez lorsque vous déployez cette solution.

Architecture de transformation des données entre MongoDB Atlas et Google Cloud

Comme le montre le schéma, trois modèles Dataflow gèrent le processus d'intégration. Le premier modèle, MongoDB vers BigQuery, est un pipeline par lots qui lit les documents de MongoDB et les écrit dans BigQuery. Le second modèle, BigQuery vers MongoDB, est un modèle de traitement par lot qui peut être utilisé pour lire les données analysées de BigQuery et les écrire dans MongoDB. Le troisième modèle, MongoDB vers BigQuery (CDC), est un pipeline de streaming qui fonctionne avec les flux de modifications MongoDB pour gérer les modifications dans les données opérationnelles. Pour en savoir plus, consultez la page Transformation des données entre MongoDB Atlas et Google Cloud.

Objectifs

Les étapes de déploiement suivantes montrent comment utiliser le modèle MongoDB vers BigQuery pour effectuer le processus ETL entre les données de MongoDB Atlas vers BigQuery. Pour déployer ce processus ETL, vous devez effectuer les jobs suivants :

  • Provisionner un cluster MongoDB Atlas dans Google Cloud.
  • Charger des données dans votre cluster MongoDB.
  • Configurer l'accès au cluster.
  • Configurer une table BigQuery sur Google Cloud.
  • Créer et surveiller le job Dataflow qui transfère les données MongoDB vers BigQuery.
  • Valider les tables de sortie sur BigQuery.

Coûts

Dans ce document, vous utilisez les composants facturables suivants de Google Cloud :

Obtenez une estimation des coûts en fonction de votre utilisation prévue à l'aide du simulateur de coût. Les nouveaux utilisateurs de Google Cloud peuvent bénéficier d'un essai gratuit.

Une fois que vous avez terminé les tâches décrites dans ce document, vous pouvez éviter de continuer à payer des frais en supprimant les ressources que vous avez créées. Pour en savoir plus, consultez la section Effectuer un nettoyage.

Avant de commencer

Pour configurer un environnement pour votre architecture MongoDB vers BigQuery, procédez comme suit :

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the BigQuery and Dataflow APIs.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  6. Make sure that billing is enabled for your Google Cloud project.

  7. Enable the BigQuery and Dataflow APIs.

    Enable the APIs

Installer MongoDB Atlas

Dans cette section, vous allez utiliser Cloud Marketplace pour installer une instance MongoDB Atlas. Dans ces instructions, nous partons du principe que vous ne disposez pas d'un compte MongoDB. Pour en savoir plus sur la configuration d'un abonnement et l'association de votre compte de facturation Google à votre compte MongoDB, consultez la page Marketplace Google Cloud en libre-service dans la documentation MongoDB.

  1. Dans la console Google Cloud, développez le menu de navigation, puis sélectionnez Marketplace.
  2. Dans le champ de recherche du Marketplace, saisissez MongoDB Atlas.
  3. Dans les résultats de recherche, sélectionnez MongoDB Atlas (paiement à l'usage).
  4. Sur la page MongoDB Atlas (paiement à l'usage), consultez les conditions d'utilisation, puis cliquez sur S'inscrire avec MongoDB.
  5. Sur la page d'abonnement MongoDB, sélectionnez votre compte de facturation, acceptez les conditions d'utilisation et cliquez sur S'abonner.
  6. Cliquez sur le bouton Enregistrer avec MongoDB et créez un compte MongoDB.
  7. Sur la page qui vous invite à sélectionner une organisation, sélectionnez l'organisation MongoDB à laquelle vous souhaitez associer votre compte de facturation Google Cloud.
  8. Attendez que Google Cloud termine la synchronisation de votre organisation.

Une fois les comptes synchronisés, la page MongoDB Atlas (paiement à l'usage) de la console Google Cloud se met à jour pour afficher un bouton Gérer sur le fournisseur.

Créer un cluster MongoDB Atlas

Dans cette section, vous allez créer un cluster MongoDB. Au cours du processus de création, vous sélectionnerez les informations suivantes :

  • Le type de votre cluster. Sélectionnez le niveau de cluster en fonction des exigences de votre infrastructure.
  • La région préférée pour votre cluster. Nous vous recommandons de sélectionner la région la plus proche de votre emplacement physique.

Pour en savoir plus sur la création et le déploiement d'un cluster MongoDB gratuit, consultez la page Déployer un cluster gratuit dans la documentation MongoDB.

Pour créer et configurer votre cluster, procédez comme suit :

  1. Dans la console Google Cloud, sur la page MongoDB Atlas (Paiement à l'usage), cliquez sur Gérer sur le fournisseur.
  2. Sur la page de connexion MongoDB, cliquez sur Google, puis sur le compte Google que vous avez utilisé pour installer MongoDB Atlas.

    En tant que nouvel utilisateur, l'interface utilisateur de MongoDB s'ouvre automatiquement à la page Déploiements de base de données.

  3. Dans l'interface utilisateur d'Atlas, sur la page Déploiements de base de données, cliquez sur Créer.

  4. Sur la page Créer un cluster, cliquez sur Partagé.

    L'option Partagé fournit un cluster gratuit que vous pouvez utiliser pour tester la présente architecture de référence.

  5. Dans la section Fournisseur cloud et région de la page Créer un cluster partagé, procédez comme suit :

    1. Sélectionnez Google Cloud.
    2. Sélectionnez la région présentant les caractéristiques de votre choix la plus proche de vous géographiquement.
  6. Dans la section Niveau de cluster, sélectionnez l'option M0.

    Les clusters M0 sont gratuits et adaptés aux petites applications de démonstration de faisabilité.

  7. Dans Nom du cluster, saisissez un nom pour votre cluster.

  8. Cliquez sur Créer un cluster pour déployer le cluster.

Configurer votre cluster MongoDB

Dans cette section, vous allez effectuer les procédures suivantes :

  • Charger les exemples de données dans votre cluster.
  • Configurer l'accès à votre cluster.
  • Vous connecter au cluster.

Charger des exemples de données dans votre cluster MongoDB

Maintenant que vous avez créé un cluster MongoDB, vous devez charger des données dans ce cluster. MongoDB propose un grand nombre d'exemples d'ensembles de données. Vous pouvez utiliser n'importe lequel de ces ensembles de données pour tester ce déploiement. Toutefois, vous préférerez peut-être utiliser un ensemble de données semblable aux données réelles que vous utiliserez dans votre déploiement de production.

Pour en savoir plus sur le chargement des exemples de données, consultez la page Charger les exemples de données dans la documentation MongoDB.

Pour charger les exemples de données, procédez comme suit :

  1. Dans l'interface utilisateur d'Atlas, sur la page Déploiements de base de données, localisez le cluster que vous venez de déployer.
  2. Cliquez sur le bouton Points de suspension (...), puis sur Charger un exemple d'ensemble de données.

    Le chargement des exemples de données prend environ cinq minutes.

  3. Examinez les exemples d'ensembles de données et notez la collection que vous souhaitez utiliser pour tester ce déploiement.

Configurer l'accès au cluster

Pour connecter votre cluster, vous devez créer un utilisateur de base de données et définir son adresse IP :

  • L'utilisateur de la base de données est distinct de l'utilisateur MongoDB. Vous avez besoin de l'utilisateur de base de données pour vous connecter à MongoDB depuis Google Cloud.
  • Pour cette architecture de référence, vous utilisez le bloc CIDR de 0.0.0.0/0 comme adresse IP. Ce bloc CIDR autorise les accès indifféremment de leur provenance et n'est adapté qu'à un déploiement de démonstration de faisabilité comme celui-ci. Lorsque vous déployez une version de production de cette architecture, veillez à saisir une plage d'adresses IP appropriée pour votre application.

Pour en savoir plus sur la configuration d'un utilisateur de base de données et sur l'adresse IP de votre cluster, consultez la page Configurer l'accès au cluster avec l'assistant de démarrage rapide dans la documentation MongoDB.

Pour configurer l'accès au cluster, procédez comme suit :

  1. Dans la section Sécurité du volet de navigation de gauche, cliquez sur Guide de démarrage rapide.
  2. Sur la page Nom d'utilisateur et mot de passe, procédez comme suit pour créer l'utilisateur de base de données :
    1. Dans le champ Nom d'utilisateur, saisissez le nom de l'utilisateur de base de données.
    2. Dans le champ Mot de passe, saisissez le mot de passe de l'utilisateur de base de données.
    3. Cliquez sur Créer un utilisateur.
  3. Sur la page Nom d'utilisateur et mot de passe, procédez comme suit pour ajouter une adresse IP pour votre cluster :

    1. Dans Adresse IP, saisissez 0.0.0.0/0.

      Pour votre environnement de production, sélectionnez l'adresse IP appropriée pour cet environnement.

    2. (Facultatif) Pour Description, saisissez une description de votre cluster.

    3. Cliquez sur Ajouter une entrée.

  4. Cliquez sur Terminer et fermer.

Vous connecter à votre cluster

Maintenant que l'accès à votre cluster est configuré, vous devez vous connecter à votre cluster. Pour en savoir plus sur la connexion au cluster, consultez la section Se connecter au cluster dans la documentation MongoDB.

Pour vous connecter à votre cluster, procédez comme suit :

  1. Dans l'interface utilisateur d'Atlas, sur la page Déploiements de base de données, localisez le cluster que vous venez de déployer.
  2. Sélectionnez Connexion.
  3. Sur la page Connexion, cliquez sur l'option Boussole.
  4. Recherchez le champ Copier la chaîne de connexion, puis copiez et enregistrez la chaîne de connexion MongoDB. Vous utilisez cette chaîne de connexion lors de l'exécution des modèles Dataflow.

    La chaîne de connexion utilise la syntaxe suivante :

    mongodb+srv://<UserName>:<Password>@<HostName>
    

    La chaîne de connexion inclut automatiquement le nom de l'utilisateur de base de données que vous avez créé à l'étape précédente. Toutefois, vous serez invité à saisir le mot de passe de l'utilisateur de base de données lorsque vous vous connecterez à l'aide de cette chaîne.

  5. Cliquez sur Fermer.

Créer un ensemble de données dans BigQuery

Lorsque vous créez un ensemble de données dans BigQuery, il vous suffit de saisir un nom et de sélectionner un emplacement géographique pour l'ensemble de données. Toutefois, vous pouvez définir des champs facultatifs sur votre ensemble de données. Pour en savoir plus sur ces champs facultatifs, consultez la section Créer des ensembles de données.

  1. Dans la console Google Cloud, accédez à la page BigQuery.

    Accéder à BigQuery

  2. Dans le panneau Explorer, sélectionnez le projet dans lequel vous souhaitez créer l'ensemble de données.

  3. Développez l'option et cliquez sur Créer un ensemble de données.

  4. Sur la page Créer un ensemble de données, procédez comme suit :

    1. Pour ID de l'ensemble de données, indiquez le nom d'un ensemble de données unique.
    2. Dans Type d'emplacement, sélectionnez un emplacement géographique pour l'ensemble de données. Une fois l'ensemble de données créé, l'emplacement ne peut plus être modifié.

      Si vous sélectionnez EU ou une région européenne comme emplacement de l'ensemble de données, vos données client BigQuery principales se trouveront dans l'UE. Pour obtenir une définition des données client BigQuery principales, consultez la page Conditions spécifiques au service.

    3. Cliquez sur Créer un ensemble de données.

Créer, surveiller et valider un job par lot Dataflow

Dans Dataflow, suivez les instructions ci-dessous pour créer un job par lot unique qui charge les exemples de données de MongoDB vers BigQuery. Après avoir créé le job par lot, vous surveillez la progression du job dans l'interface de surveillance Dataflow. Pour en savoir plus sur l'utilisation de l'interface de surveillance, consultez la page Utiliser l'interface de surveillance Dataflow.

  1. Dans la console Google Cloud, accédez à la page Dataflow.

    Accéder à Dataflow

  2. Cliquez sur Create job from template (Créer un job à partir d'un modèle).

  3. Sur la page Créer un job à partir d'un modèle, procédez comme suit :

    1. Dans le champ Nom du job, saisissez un nom de job unique, tel que mongodb-to-bigquery-batch. Assurez-vous qu'aucun autre job Dataflow portant ce nom n'est en cours d'exécution dans ce projet.
    2. Pour le Point de terminaison régional, sélectionnez l'emplacement de l'ensemble de données BigQuery que vous venez de créer.
    3. Pour le paramètre Modèle Dataflow, dans la liste Traiter les données de manière groupée (lot), sélectionnez MongoDB vers BigQuery.
    4. Dans la section Paramètres obligatoires, saisissez les paramètres suivants :

      1. Pour URI de connexion MongoDB, saisissez votre chaîne de connexion Atlas MongoDB.
      2. Pour Base de données Mongo, saisissez le nom de la base de données que vous avez créée précédemment.
      3. Pour la collection Mongo, saisissez le nom de l'exemple de collection que vous avez noté précédemment.
      4. Pour la table de destination BigQuery, cliquez sur Parcourir, puis sélectionnez la table BigQuery que vous avez créée à l'étape précédente.
      5. Dans le champ Option utilisateur, saisissez NONE ou FLATTEN.

        NONE charge le document entier au format de chaîne JSON dans BigQuery. FLATTEN aplatit le document sur un niveau. Si vous ne fournissez pas de fonction définie par l'utilisateur, l'option FLATTEN ne fonctionne qu'avec des documents à schéma fixe.

      6. Pour démarrer le job, cliquez sur Exécuter le job.

  4. Procédez comme suit pour ouvrir l'interface de surveillance de Dataflow. Celle-ci vous permet de vérifier la progression du job par lot et de vérifier qu'elle se termine sans erreur :

    1. Dans la console Google Cloud, dans le projet pour ce déploiement, ouvrez le menu de navigation.
    2. Dans Analyse, cliquez sur Dataflow.
  5. Une fois le pipeline exécuté, procédez comme suit pour valider le résultat de la table :

    1. Dans BigQuery, ouvrez le volet Explorateur.
    2. Développez votre projet, cliquez sur l'ensemble de données, puis double-cliquez sur la table.

      Vous devriez maintenant pouvoir afficher les données MongoDB dans la table.

Effectuer un nettoyage

Pour éviter que des frais ne soient facturés sur vos comptes MongoDB et Google Cloud, vous devez mettre en veille ou arrêter votre cluster MongoDB Atlas et supprimer le projet Google Cloud que vous avez créé pour cette architecture de référence.

Mettre en veille ou arrêter votre cluster MongoDB Atlas

La procédure suivante fournit les principes de base de la mise en pause de votre cluster. Pour en savoir plus, consultez la section Suspendre, réactiver ou arrêter un cluster dans la documentation de MongoDB.

  1. Dans l'interface utilisateur d'Atlas, accédez à la page Déploiements de base de données de votre projet Atlas.
  2. Pour le cluster que vous souhaitez suspendre, cliquez sur .
  3. Cliquez sur Suspendre le cluster.
  4. Cliquez sur Suspendre le cluster pour confirmer votre choix.

Supprimer le projet

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

Étapes suivantes

  • Recherchez des modèles Google Dataflow sur GitHub si vous souhaitez les personnaliser.
  • Pour en savoir plus sur les solutions MongoDB Atlas et Google Cloud, consultez la page Cloud Skills Boost.
  • Découvrez les produits Google Cloud utilisés dans cette architecture de référence :
  • Pour découvrir d'autres architectures de référence, schémas et bonnes pratiques, consultez le Centre d'architecture cloud.

Contributeurs

Auteurs :

Autres contributeurs :

Pour consulter les profils LinkedIn non publics, connectez-vous à LinkedIn.