Cette page explique comment lire plusieurs tables à partir d'une base de données Microsoft SQL Server à l'aide de la source multitables. Utilisez la source multi-tables lorsque vous souhaitez que votre pipeline lise des données à partir de plusieurs tables. Si vous souhaitez que votre pipeline lise les données d'une seule table, consultez la section Lire à partir d'une table SQL Server.
La source multicloud génère des données avec plusieurs schémas et inclut un champ de nom de table qui indique la table d'où proviennent les données. Lorsque vous utilisez la source multicloud, utilisez l'un des récepteurs multitables, la multitable BigQuery ou le fichier multiple GCS.
Avant de commencer
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Cloud Data Fusion, Cloud Storage, BigQuery, and Dataproc APIs.
- Créez une instance Cloud Data Fusion.
- Assurez-vous que votre base de données SQL Server peut accepter les connexions depuis Cloud Data Fusion. Pour ce faire, nous vous recommandons de créer une instance Cloud Data Fusion privée.
Afficher votre instance Cloud Data Fusion
Lorsque vous utilisez Cloud Data Fusion, vous utilisez à la fois la console Google Cloud et l'interface utilisateur Cloud Data Fusion distincte. Dans la console Google Cloud, vous pouvez créer un projet Google Cloud, ainsi que créer et supprimer des instances Cloud Data Fusion. Dans l'interface utilisateur Cloud Data Fusion, vous pouvez utiliser les différentes pages, telles que Studio ou Wrangler, pour utiliser les fonctionnalités de Cloud Data Fusion.
Dans la console Google Cloud, accédez à la page Cloud Data Fusion.
Pour ouvrir l'instance dans Cloud Data Fusion Studio, Cliquez sur Instances, puis sur Afficher l'instance.
Stocker votre mot de passe SQL Server en tant que clé sécurisée
Ajoutez votre mot de passe SQL Server en tant que clé sécurisée à chiffrer sur votre instance Cloud Data Fusion. Plus loin dans ce guide, vous veillerez à ce que votre mot de passe soit récupéré à l'aide de Cloud KMS.
En haut à droite de n'importe quelle page Cloud Data Fusion, cliquez sur Administrateur système.
Cliquez sur l'onglet Configuration.
Cliquez sur Effectuer des appels HTTP.
Dans le menu déroulant, sélectionnez PUT.
Dans le champ "Chemin d'accès", saisissez
namespaces/NAMESPACE_ID/securekeys/PASSWORD
.Dans le champ Corps, saisissez
{"data":"SQL_SERVER_PASSWORD"}
.Cliquez sur Envoyer.
Assurez-vous que la Réponse que vous recevez correspond au code d'état 200
.
Obtenir le pilote JDBC pour SQL Server
Utiliser le hub
Dans l'interface utilisateur de Cloud Data Fusion, cliquez sur Hub.
Dans la barre de recherche, saisissez
Microsoft SQL Server JDBC Driver
.Cliquez sur Pilote JDBC Microsoft SQL Server.
Cliquez sur Download (Télécharger). Suivez la procédure de téléchargement affichée.
Cliquez sur Déployer. Importez le fichier JAR de l'étape précédente.
Cliquez sur Terminer.
Utiliser Studio
Accédez au site Microsoft.com.
Choisissez votre téléchargement, puis cliquez sur Télécharger.
Dans l'interface utilisateur de Cloud Data Fusion, cliquez sur le menu
, puis accédez à la page Studio.Cliquez sur
Ajouter.Sous Pilote, cliquez sur Importer.
Importez le fichier JAR téléchargé à l'étape 2.
Cliquez sur Suivant.
Configurez le pilote en saisissant un nom.
Dans le champ Class name (Nom de la classe), saisissez
com.microsoft.sqlserver.jdbc.SQLServerDriver
.Cliquez sur Terminer.
Déployer les plug-ins multi-tables
Dans l'interface utilisateur Web de Cloud Data Fusion, cliquez sur Hub.
Dans la barre de recherche, saisissez
Multiple table plugins
.Cliquez sur Plug-ins multi-tables.
Cliquez sur Déployer.
Cliquez sur Terminer.
Cliquez sur Créer un pipeline.
Se connecter à SQL Server
Dans l'interface utilisateur de Cloud Data Fusion, cliquez sur le menu
, puis accédez à la page Studio.Dans Studio, développez le menu Source.
Cliquez sur Multiple Database Tables (Tables à plusieurs bases de données).
Placez le pointeur sur le nœud Multiple Database Tables (Tables à plusieurs bases de données), puis cliquez sur Properties (Propriétés).
Dans le champ Nom de la référence, spécifiez un nom de référence qui sera utilisé pour identifier votre source SQL Server.
Dans le champ Chaîne de connexion JDBC, saisissez la chaîne de connexion JDBC. Exemple :
jdbc:sqlserver://mydbhost:1433
. Pour en savoir plus, consultez Créer l'URL de connexion.Renseignez les champs Nom du plug-in JDBC, Nom d'utilisateur de la base de données et Mot de passe de l'utilisateur de la base de données.
Cliquez sur Valider.
Cliquez sur
Fermer.
Associer Looker Studio à BigQuery ou Cloud Storage
Dans l'interface utilisateur de Cloud Data Fusion, cliquez sur le menu
, puis accédez à la page Studio.Développez Récepteur.
Cliquez sur Multitable BigQuery ou Multifichier GCS.
Connectez le nœud Multiple Database Tables (Tables de bases de données multiples) à l'option Multitable BigQuery ou Multi File GCS.
Gardez le pointeur de la souris sur le nœud Multitable BigQuery ou Multi File GCS, cliquez sur Propriétés et configurez le récepteur.
Pour en savoir plus, consultez les pages Récepteur multi-table Google BigQuery et Récepteur multi-fichiers Google Cloud Storage.
Cliquez sur Valider.
Cliquez sur
Fermer.
Exécuter l'aperçu du pipeline
Dans l'interface utilisateur de Cloud Data Fusion, cliquez sur le menu
, puis accédez à la page Studio.Cliquez sur Aperçu.
Cliquez sur Exécuter. Attendez que l'aperçu se termine correctement.
Déployer le pipeline
Dans l'interface utilisateur de Cloud Data Fusion, cliquez sur le menu
, puis accédez à la page Studio.Cliquez sur Déployer.
Exécuter le pipeline
Dans l'interface utilisateur de Cloud Data Fusion, cliquez sur le menu
.Cliquez sur Liste.
Cliquez sur le pipeline.
Sur la page des détails du pipeline, cliquez sur Run (Exécuter).
Étapes suivantes
- Apprenez-en plus sur Cloud Data Fusion.
- Suivez l'un des tutoriels.