Ce tutoriel explique comment utiliser les flux de modifications Bigtable pour modèle Pub/Sub, y compris comment configurer un sujet et modèle. Vous pouvez éventuellement créer une fonction Cloud Run dans le langage de programmation de votre choix, qui est déclenché par le flux d'événements.
Ce tutoriel s'adresse aux utilisateurs techniques qui connaissent Bigtable, écrire du code et diffuser des événements.
Objectifs
Ce tutoriel vous explique comment effectuer les opérations suivantes:
- Créer une table Bigtable avec un flux de modifications activé
- Créer un sujet Pub/Sub avec le flux de modifications Bigtable du schéma.
- Déployer un flux de modifications Bigtable dans un pipeline Pub/Sub Dataflow à l'aide du modèle.
- Afficher le flux d'événements dans Pub/Sub directement ou dans les journaux d'une fonction Cloud Run.
Coûts
Dans ce document, vous utilisez les composants facturables suivants de Google Cloud :
Obtenez une estimation des coûts en fonction de votre utilisation prévue à l'aide du simulateur de coût.
Une fois que vous avez terminé les tâches décrites dans ce document, vous pouvez éviter de continuer à payer des frais en supprimant les ressources que vous avez créées. Pour en savoir plus, consultez la section Effectuer un nettoyage.
Avant de commencer
- Connectez-vous à votre compte Google Cloud. Si vous débutez sur Google Cloud, créez un compte pour évaluer les performances de nos produits en conditions réelles. Les nouveaux clients bénéficient également de 300 $ de crédits gratuits pour exécuter, tester et déployer des charges de travail.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Dataflow, Cloud Bigtable API, Cloud Bigtable Admin API, Pub/Sub, Cloud Run functions, and Cloud Storage APIs.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Dataflow, Cloud Bigtable API, Cloud Bigtable Admin API, Pub/Sub, Cloud Run functions, and Cloud Storage APIs.
-
In the Google Cloud console, activate Cloud Shell.
At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.
- Mettez à jour et installez
CLI
cbt
pour en savoir plus.gcloud components update gcloud components install cbt
Créer un sujet Pub/Sub
Dans la console Google Cloud, accédez à la page Sujets de Pub/Sub. .
Cliquez sur Create topic (Créer un sujet).
Définissez
bigtable-change-stream-topic
comme ID.Sélectionnez Utiliser un schéma.
Dans la liste déroulante Sélectionner un schéma Pub/Sub, cliquez sur Créer. nouveau schéma. Un nouvel onglet s'ouvre et vous permet de définir le schéma.
- Définissez l'ID de schéma sur
bigtable-change-stream-schema
. - Définissez le type de schéma sur Avro.
- Collez le code suivant en tant que définition de schéma. En savoir plus sur le est disponible dans la documentation sur les modèles .
{ "name" : "ChangelogEntryMessage", "type" : "record", "namespace" : "com.google.cloud.teleport.bigtable", "fields" : [ { "name" : "rowKey", "type" : "bytes"}, { "name" : "modType", "type" : { "name": "ModType", "type": "enum", "symbols": ["SET_CELL", "DELETE_FAMILY", "DELETE_CELLS", "UNKNOWN"]} }, { "name": "isGC", "type": "boolean" }, { "name": "tieBreaker", "type": "int"}, { "name": "columnFamily", "type": "string"}, { "name": "commitTimestamp", "type" : "long"}, { "name" : "sourceInstance", "type" : "string"}, { "name" : "sourceCluster", "type" : "string"}, { "name" : "sourceTable", "type" : "string"}, { "name": "column", "type" : ["null", "bytes"]}, { "name": "timestamp", "type" : ["null", "long"]}, { "name": "timestampFrom", "type" : ["null", "long"]}, { "name": "timestampTo", "type" : ["null", "long"]}, { "name" : "value", "type" : ["null", "bytes"]} ] }
- Cliquez sur Créer pour créer le schéma.
- Définissez l'ID de schéma sur
Fermez l'onglet Créer un schéma, actualisez la liste des schémas, puis sélectionnez votre schéma nouvellement défini.
Cliquez sur Créer pour créer le sujet.
Facultatif: Créer une fonction Cloud Run
Vous voudrez peut-être traiter le flux Pub/Sub avec un fonction Cloud Run.
- Sur la page Détails du sujet
bigtable-change-stream-topic
, cliquez sur Déclencher une fonction Cloud - Dans le champ Nom de la fonction, saisissez le nom
bt-ps-tutorial-function
. - Dans la section Code source, cliquez sur la liste déroulante Environnement d'exécution, puis
sélectionnez l'environnement d'exécution et le langage de programmation de votre choix. Un
hello world
est généré, qui imprime le flux de modifications à mesure qu'il arrive. Consultez le pour en savoir plus sur l'écriture de fonctions Cloud Run. - Utilisez les valeurs par défaut pour tous les autres champs.
- Cliquez sur Déployer la fonction.
Créer une table avec un flux de modifications activé
Dans la console Google Cloud, accédez à Bigtable Instances.
Cliquez sur l'ID de l'instance que vous utilisez pour ce tutoriel.
Si vous n'avez pas d'instance disponible, créez un par défaut avec les configurations par défaut dans une région près de chez vous.
Dans le volet de navigation de gauche, cliquez sur Tables.
Cliquez sur Créer une table.
Nommez la table
change-streams-pubsub-tutorial
.Ajoutez une famille de colonnes nommée
cf
.Sélectionnez Activer le flux de modifications.
Cliquez sur Créer.
Initialiser un pipeline de données pour capturer le flux de modifications
- Sur la page Tables de Bigtable, trouvez votre table.
change-streams-pubsub-tutorial
- Dans la colonne Flux de modifications, cliquez sur Se connecter.
- Dans la boîte de dialogue, sélectionnez Pub/Sub.
- Cliquez sur Créer un job Dataflow.
- Sur la page Dataflow Create job (Créer un job), définissez la sortie
Nom du sujet Pub/Sub remplacé par
bigtable-change-stream-topic
. - Définissez l'ID de profil d'application Bigtable sur
default
. - Cliquez sur Run Job (Exécuter la tâche).
- Attendez que l'état de la tâche affiche Démarrage ou En cours d'exécution avant de continuer. L'opération prend environ cinq minutes une fois la tâche mise en file d'attente.
Écrire des données dans Bigtable
Dans Cloud Shell, écrivez quelques lignes dans Bigtable afin que le journal des modifications puisse écrire des données dans le flux Pub/Sub. Tant que à mesure que vous écrivez les données après la création du job, les modifications apparaissent. Toi n'avez pas besoin d'attendre que l'état du job passe à
running
.cbt -instance=BIGTABLE_INSTANCE_ID -project=YOUR_PROJECT_ID \ set change-streams-pubsub-tutorial user123 cf:col1=abc cbt -instance=BIGTABLE_INSTANCE_ID -project=YOUR_PROJECT_ID \ set change-streams-pubsub-tutorial user546 cf:col1=def cbt -instance=BIGTABLE_INSTANCE_ID -project=YOUR_PROJECT_ID \ set change-streams-pubsub-tutorial user789 cf:col1=ghi
Afficher les journaux des modifications dans Pub/Sub
Dans la console Google Cloud, accédez à la page Abonnements de Pub/Sub.
Cliquez sur l'abonnement créé automatiquement pour votre sujet
bigtable-change-stream-topic
. Il doit être nommébigtable-change-stream-topic-sub
.Accédez à l'onglet Messages.
Cliquez sur Extraire.
Parcourez la liste des messages et affichez les données que vous avez écrites.
Facultatif: Afficher les modifications dans les journaux des fonctions Cloud Run
Si vous avez créé une fonction Cloud Run, vous pouvez afficher les modifications dans les journaux.
Dans la console Google Cloud, accédez à la page Fonctions Cloud Run.
Cliquez sur votre fonction
bt-ps-tutorial-function
.Accédez à l'onglet Journaux.
Assurez-vous que le paramètre Gravité est défini au moins sur Informations pour que les journaux.
Explorez les journaux et affichez les données que vous avez écrites.
La sortie ressemble à ceci :
Pub/Sub message: {"rowKey":"user789","modType":"SET_CELL","isGC":false,"tieBreaker":0,"columnFamily":"cf","commitTimestamp":1695653833064548,"sourceInstance":"YOUR-INSTANCE","sourceCluster":"YOUR-INSTANCE-c1","sourceTable":"change-streams-pubsub-tutorial","column":{"bytes":"col1"},"timestamp":{"long":1695653832278000},"timestampFrom":null,"timestampTo":null,"value":{"bytes":"ghi"}}
Effectuer un nettoyage
Pour éviter que les ressources utilisées lors de ce tutoriel soient facturées sur votre compte Google Cloud, supprimez le projet contenant les ressources, ou conservez le projet et supprimez les ressources individuelles.
Supprimer la table Bigtable
Dans la console Google Cloud, accédez à la page Instances de Bigtable.
Cliquez sur l'ID de l'instance que vous utilisez pour ce tutoriel.
Dans le volet de navigation de gauche, cliquez sur Tables.
Recherchez la table
change-streams-pubsub-tutorial
.Cliquez sur Modifier.
Décochez la case Activer le flux de modifications.
Cliquez sur Enregistrer.
Ouvrez le menu à développer du tableau.
Cliquez sur Supprimer et saisissez le nom de la table pour confirmer.
Arrêter le pipeline du flux de modifications
Dans la console Google Cloud, accédez à la page Tâches de Dataflow.
Sélectionnez votre tâche de traitement par flux dans la liste des tâches.
Dans la barre de navigation, cliquez sur Arrêter.
Dans la boîte de dialogue Stop job (Arrêter le job), annulez votre pipeline, puis cliquez sur Stop (Arrêter). job.
Supprimer le sujet et l'abonnement Pub/Sub
Dans la console Google Cloud, accédez à la page Sujets de Pub/Sub. .
Sélectionnez le sujet
bigtable-change-stream-topic
.Cliquez sur Supprimer, puis confirmez la suppression.
Cliquez sur Abonnements dans la barre latérale.
Sélectionnez l'abonnement
bigtable-change-stream-topic-sub
.Cliquez sur Supprimer, puis confirmez la suppression.
Supprimer la fonction Cloud Run
Dans la console Google Cloud, accédez à la page Fonctions Cloud Run.
Sélectionnez la fonction
bt-ps-tutorial-function
.Cliquez sur Supprimer, puis confirmez la suppression.