Publier des événements dans une table BigQuery
Ce guide de démarrage rapide explique comment publier et recevoir des messages d'événement en créant un bus Eventarc Advanced et en vous y inscrivant dans votre projet Google Cloud.
Un bus vous permet de centraliser le flux de messages dans votre système et sert de routeur. Il reçoit les messages d'événement d'une source de messages ou publiés par un fournisseur, et les évalue en fonction d'un enregistrement.
Un enregistrement identifie un abonnement à un bus spécifique et définit les critères de correspondance pour les messages, ce qui les fait acheminer en conséquence vers une ou plusieurs destinations.
Dans le cadre de ce guide démarrage rapide, vous allez effectuer les étapes suivantes :
Créez une table BigQuery.
Créez un bus Eventarc Advanced.
Créez une inscription Eventarc Advanced.
Publiez un message d'événement dans le bus.
Affichez les données d'événement dans la table BigQuery.
Vous pouvez suivre ce guide de démarrage rapide à l'aide de la gcloud CLI et de l'outil de ligne de commande bq.
Avant de commencer
Les contraintes de sécurité définies par votre organisation peuvent vous empêcher d'effectuer les étapes suivantes. Pour en savoir plus sur la résolution des problèmes, consultez Développer des applications dans un environnement Google Cloud limité.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
Install the Google Cloud CLI.
-
Si vous utilisez un fournisseur d'identité (IdP) externe, vous devez d'abord vous connecter à la gcloud CLI avec votre identité fédérée.
-
Pour initialiser la gcloud CLI, exécutez la commande suivante :
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the BigQuery and Eventarc APIs:
gcloud services enable bigquery.googleapis.com
eventarc.googleapis.com eventarcpublishing.googleapis.com -
Install the Google Cloud CLI.
-
Si vous utilisez un fournisseur d'identité (IdP) externe, vous devez d'abord vous connecter à la gcloud CLI avec votre identité fédérée.
-
Pour initialiser la gcloud CLI, exécutez la commande suivante :
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the BigQuery and Eventarc APIs:
gcloud services enable bigquery.googleapis.com
eventarc.googleapis.com eventarcpublishing.googleapis.com - Mettez à jour les composants
gcloud
:gcloud components update
- Connectez-vous à votre compte :
gcloud auth login
- Définissez la variable de configuration utilisée dans ce guide de démarrage rapide :
REGION=REGION
Remplacez
REGION
par un emplacement compatible pour le bus (par exemple,us-central1
). -
Si vous êtes le créateur du projet, vous disposez du rôle de base Propriétaire (
roles/owner
). Par défaut, ce rôle Identity and Access Management (IAM) inclut les autorisations nécessaires pour accéder à la plupart des ressources Google Cloud. Vous pouvez ignorer cette étape.Si vous n'êtes pas le créateur du projet, les autorisations requises doivent être accordées au compte principal approprié sur le projet. Par exemple, un compte principal peut être un compte Google (pour les utilisateurs finaux) ou un compte de service (pour les applications et les charges de travail de calcul).
Autorisations requises
Pour obtenir les autorisations nécessaires pour suivre ce guide de démarrage rapide, demandez à votre administrateur de vous accorder les rôles IAM suivants sur votre projet :
-
Éditeur de données BigQuery (
roles/bigquery.dataEditor
) -
Développeur Eventarc (
roles/eventarc.developer
) -
Administrateur de bus à messages Eventarc (
roles/eventarc.messageBusAdmin
) -
Accesseur de vues de journaux (
roles/logging.viewAccessor
) -
Administrateur de projet IAM (
roles/resourcemanager.projectIamAdmin
) -
Administrateur de compte de service (
roles/iam.serviceAccountAdmin
) -
Utilisateur du compte de service (
roles/iam.serviceAccountUser
) -
Administrateur Service Usage (
roles/serviceusage.serviceUsageAdmin
)
Pour en savoir plus sur l'attribution de rôles, consultez la page Gérer l'accès aux projets, aux dossiers et aux organisations.
Vous pouvez également obtenir les autorisations requises avec des rôles personnalisés ou d'autres rôles prédéfinis.
-
Éditeur de données BigQuery (
- Pour accorder à Eventarc Advanced les autorisations nécessaires pour mettre à jour les propriétés des table BigQuery, demandez à votre administrateur d'attribuer le rôle IAM Éditeur de données BigQuery (
roles/bigquery.dataEditor
) sur votre projet Google Cloud à un compte de service :- Créez un compte de service. À des fins de test, vous allez associer ce compte de service à un pipeline Eventarc Advanced pour représenter l'identité du pipeline.
Remplacezgcloud iam service-accounts create SERVICE_ACCOUNT_NAME
SERVICE_ACCOUNT_NAME
par le nom que vous souhaitez donner à votre compte de service. - Attribuez le rôle IAM
roles/bigquery.dataEditor
au compte de service :gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com" \ --role=roles/bigquery.dataEditor
- Créez un compte de service. À des fins de test, vous allez associer ce compte de service à un pipeline Eventarc Advanced pour représenter l'identité du pipeline.
Pour créer un ensemble de données, exécutez la commande bq mk avec l'indicateur
--dataset
.bq --location=$REGION mk --dataset DATASET_ID
Remplacez
DATASET_ID
par un nom unique pour l'ensemble de données BigQuery (par exemple,my_dataset
).Dans votre terminal, créez un fichier nommé
my-schema.json
.Copiez le schéma suivant et collez-le dans le nouveau fichier, puis enregistrez-le.
[ { "name": "name", "type": "STRING", "mode": "REQUIRED" }, { "name": "age", "type": "INTEGER", "mode": "NULLABLE" } ]
Pour créer une table, utilisez la commande bq mk avec l'indicateur
--table
.bq mk --table PROJECT_ID:DATASET_ID.TABLE_ID my-schema.json
Remplacez
TABLE_ID
par un nom unique pour la table BigQuery (par exemple,my-table
).Créez un pipeline à l'aide de la commande
gcloud eventarc pipelines create
:gcloud eventarc pipelines create PIPELINE_NAME \ --destinations=http_endpoint_uri='https://bigquery.googleapis.com/bigquery/v2/projects/PROJECT_ID/datasets/DATASET_ID/tables/TABLE_ID/insertAll',http_endpoint_message_binding_template='{"headers": headers.merge({"content-type":"application/json"}), "body": {"rows":[{"json":message.data}]}}',oauth_token_authentication_service_account=SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com \ --input-payload-format-json= \ --location=$REGION
Remplacez
PIPELINE_NAME
par l'ID du pipeline ou par un nom complet (par exemple,my-pipeline
).Veuillez noter les points suivants :
- La clé
http_endpoint_message_binding_template
transforme l'événement au format attendu par l'API. Lorsque vous définissez une liaison de message, vous devez configurer un format d'entrée pour accéder à la charge utile. - La clé
oauth_token_authentication_service_account
spécifie une adresse e-mail de compte de service. Cette adresse e-mail est utilisée pour générer un jeton OAuth qui ne doit généralement être utilisé que lors de l'appel des API Google hébergées sur*.googleapis.com
. - L'indicateur
input-payload-format-json
spécifie que le format de la charge utile d'entrée du pipeline est JSON. Tous les messages qui ne correspondent pas à ce format sont traités comme des erreurs persistantes.
- La clé
Créez un enregistrement à l'aide de la commande
gcloud eventarc enrollments create
:gcloud eventarc enrollments create ENROLLMENT_NAME \ --cel-match=MATCH_EXPRESSION \ --destination-pipeline=PIPELINE_NAME \ --message-bus=BUS_NAME \ --message-bus-project=PROJECT_ID \ --location=$REGION
Remplacez les éléments suivants :
ENROLLMENT_NAME
: ID de l'enregistrement ou nom complet, par exemplemy-enrollment
.MATCH_EXPRESSION
: expression de correspondance pour cet enregistrement à l'aide de CEL, par exemple :"message.type == 'hello-world-type'"
Supprimez les ressources Eventarc Advanced :
Créer une table BigQuery
Créez une table BigQuery comme destination de vos événements. D'autres destinations d'événements sont acceptées, comme un sujet Pub/Sub, des workflows ou un autre point de terminaison HTTP. Pour en savoir plus, consultez Fournisseurs et destinations d'événements.
Avant de créer une table BigQuery, créez un ensemble de données qui sert de conteneur de premier niveau pour la table, ainsi qu'un schéma de table.
Créer un bus Eventarc Advanced
Un bus reçoit les messages d'événement d'une source de messages ou publiés par un fournisseur, et sert de routeur de messages.
Pour en savoir plus, consultez Créer un bus pour acheminer les messages.
Créez un bus Eventarc Advanced dans votre projet à l'aide de la commande gcloud eventarc message-buses create
:
gcloud eventarc message-buses create BUS_NAME \ --location=$REGION
Remplacez BUS_NAME
par l'ID de votre bus ou par un nom complet, par exemple my-bus
.
Créer une inscription Eventarc Advanced
Un enregistrement détermine les messages à acheminer vers une destination et spécifie également le pipeline utilisé pour configurer une destination pour les messages d'événement. Dans ce cas, la destination cible est un point de terminaison de l'API BigQuery.
Pour en savoir plus, consultez Créer un enregistrement pour recevoir des événements.
Lorsque vous utilisez la gcloud CLI, vous créez d'abord un pipeline, puis un enregistrement :
Publier un message d'événement dans le bus
Pour publier directement un message dans votre bus, vous pouvez utiliser la commande gcloud eventarc message-buses publish
ou envoyer une requête à l'API REST Eventarc Publishing.
Pour en savoir plus, consultez Publier des événements directement.
Le message doit être au format CloudEvents, qui est une spécification permettant de décrire les données d'événement de manière courante. L'élément data
correspond à la charge utile de votre événement. Il doit correspondre au schéma de votre table BigQuery. Tout code JSON bien formé peut être inséré dans ce champ. Pour en savoir plus sur les attributs de contexte CloudEvents, consultez Format d'événement.
Voici des exemples de publication directe d'un événement sur un bus Eventarc Advanced :
Exemple 1
Vous pouvez publier un événement dans un bus à l'aide de la gcloud CLI et d'un --event-data
ainsi que d'autres indicateurs d'attributs d'événement :
gcloud eventarc message-buses publish BUS_NAME \
--event-data='{"name": "my-name", "age": "20"}' \
--event-id=hello-world-id-1234 \
--event-source=hello-world-source \
--event-type=hello-world-type \
--event-attributes="datacontenttype=application/json" \
--location=$REGION
Exemple 2
Vous pouvez publier un événement dans un bus en tant que message JSON à l'aide de gcloud CLI et d'un indicateur --json-message
:
gcloud eventarc message-buses publish BUS_NAME \
--location=$REGION \
--json-message='{"id": "hello-world-id-1234", "type":
"hello-world-type", "source":
"hello-world-source", "specversion": "1.0", "data":
{"name": "my-name", "age": "20"}}'
Une fois l'événement publié, vous devriez recevoir le message "Événement publié".
Afficher les données d'événement dans la table BigQuery
Après avoir publié un événement sur votre bus Eventarc Advanced, vous pouvez utiliser la commande bq query pour vérifier qu'une ligne a été ajoutée à votre table BigQuery.
bq query \ --use_legacy_sql=false \ 'SELECT * FROM `PROJECT_ID.DATASET_ID.TABLE_ID` LIMIT 10;'
Vous avez créé un bus et un enregistrement Eventarc Advanced, publié un message d'événement dans le bus et vérifié le résultat attendu en interrogeant la table BigQuery.
Effectuer un nettoyage
Une fois que vous avez terminé les tâches décrites dans ce guide de démarrage rapide, vous pouvez éviter de continuer à payer des frais en supprimant les ressources que vous avez créées :
Vous pouvez également supprimer votre projet Google Cloud pour éviter des frais. La suppression de votre projet Google Cloud arrête la facturation de toutes les ressources utilisées dans ce projet.
Delete a Google Cloud project:
gcloud projects delete PROJECT_ID