Mit Workflows können Sie Cloud Run-Jobs als Teil eines Workflows ausführen, um eine komplexere Datenverarbeitung durchzuführen oder ein System vorhandener Jobs zu orchestrieren.
In dieser Anleitung wird gezeigt, wie Sie mit Workflows eine Cloud Run-Job, der als Umgebung übergebene Daten verarbeitet an den Job als Reaktion auf ein Ereignis aus Cloud Storage.
Sie können die Ereignisdaten auch in einem Bucket, mit dem Sie die Daten mithilfe von vom Kunden verwaltete Verschlüsselungsschlüssel Weitere Informationen finden Sie unter Cloud Run-Job ausführen, der in Cloud Storage gespeicherte Ereignisdaten verarbeitet
Lernziele
In dieser Anleitung werden Sie:
- Cloud Run-Job erstellen, der Datendateien in einem Cloud Storage-Bucket.
- Stellen Sie einen Workflow bereit, der Folgendes ausführt:
- Akzeptiert ein Cloud Storage-Ereignis als Argument.
- Prüft, ob der im Ereignis angegebene Cloud Storage-Bucket mit dem Bucket übereinstimmt, der vom Cloud Run-Job verwendet wird.
- Wenn ja, verwenden Sie den Cloud Run Admin API-Connector. um den Cloud Run-Job auszuführen.
- Eventarc-Trigger erstellen, der den Workflow daraufhin ausführt auf Ereignisse, die sich auf den Cloud Storage-Bucket auswirken.
- Triggern Sie den Workflow, indem Sie eine Eingabedatendatei im Cloud Storage-Bucket aktualisieren.
Kosten
In diesem Dokument verwenden Sie die folgenden kostenpflichtigen Komponenten von Google Cloud:
Mit dem Preisrechner können Sie eine Kostenschätzung für Ihre voraussichtliche Nutzung vornehmen.
Vorbereitung
Von Ihrer Organisation definierte Sicherheitsbeschränkungen verhindern möglicherweise, dass die folgenden Schritte ausgeführt werden. Informationen zur Fehlerbehebung finden Sie unter Anwendungen in einer eingeschränkten Google Cloud-Umgebung entwickeln.
Console
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
-
Enable the Artifact Registry, Cloud Build, Cloud Run, Cloud Storage, Eventarc, and Workflows APIs.
-
Create a service account:
-
In the Google Cloud console, go to the Create service account page.
Go to Create service account - Select your project.
-
In the Service account name field, enter a name. The Google Cloud console fills in the Service account ID field based on this name.
In the Service account description field, enter a description. For example,
Service account for quickstart
. - Click Create and continue.
-
Grant the following roles to the service account: Cloud Run Admin, Eventarc Event Receiver, Logs Writer, Workflows Invoker.
To grant a role, find the Select a role list, then select the role.
To grant additional roles, click
Add another role and add each additional role. - Click Continue.
-
Click Done to finish creating the service account.
-
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
-
Enable the Artifact Registry, Cloud Build, Cloud Run, Cloud Storage, Eventarc, and Workflows APIs.
-
Create a service account:
-
In the Google Cloud console, go to the Create service account page.
Go to Create service account - Select your project.
-
In the Service account name field, enter a name. The Google Cloud console fills in the Service account ID field based on this name.
In the Service account description field, enter a description. For example,
Service account for quickstart
. - Click Create and continue.
-
Grant the following roles to the service account: Cloud Run Admin, Eventarc Event Receiver, Logs Writer, Workflows Invoker.
To grant a role, find the Select a role list, then select the role.
To grant additional roles, click
Add another role and add each additional role. - Click Continue.
-
Click Done to finish creating the service account.
-
- Bevor Sie einen Trigger für direkte Ereignisse aus Cloud Storage erstellen, weisen Sie dem Cloud Storage-Dienst-Agent die Pub/Sub-Publisher-Rolle (
roles/pubsub.publisher
) zu:- Wechseln Sie in der Google Cloud Console zur
IAM.
- Klicken Sie auf das Kästchen Von Google bereitgestellte Rollenzuweisungen einschließen.
- Suchen Sie in der Spalte Hauptkonto nach dem Cloud Storage-Dienst-Agent im Formular
service-PROJECT_NUMBER@gs-project-accounts.iam.gserviceaccount.com
und klicken Sie in der entsprechenden Zeile auf Hauptkonto bearbeiten. - Klicken Sie entweder auf Rolle hinzufügen oder Weitere Rolle hinzufügen.
- Filtern Sie in der Liste Rolle auswählen nach Pub/Sub-Publisher und wählen Sie dann die Rolle aus.
- Klicken Sie auf Speichern.
- Wechseln Sie in der Google Cloud Console zur
IAM.
- Wenn Sie den Cloud Pub/Sub-Dienst-Agent auf oder
vor dem 8. April 2021, um authentifizierte Pub/Sub-Push-Vorgänge zu unterstützen
anfragen, gewähren Sie dem
Service
Rolle „Kontotoken-Ersteller“ (
roles/iam.serviceAccountTokenCreator
) an den Dienst-Agent gesendet. Andernfalls wird diese Rolle standardmäßig gewährt:- Wechseln Sie in der Google Cloud Console zur
IAM.
- Klicken Sie auf das Kästchen Von Google bereitgestellte Rollenzuweisungen einschließen.
- Suchen Sie in der Spalte Name nach dem Cloud Pub/Sub-Dienstkonto und klicken Sie dann in der entsprechenden Zeile auf Hauptkonto bearbeiten.
- Klicken Sie entweder auf Rolle hinzufügen. oder Weitere Rolle hinzufügen
- Filtern Sie in der Liste Rolle auswählen nach Ersteller von Dienstkonto-Tokens und wählen Sie die Rolle aus.
- Klicken Sie auf Speichern.
- Wechseln Sie in der Google Cloud Console zur
IAM.
-
In the Google Cloud console, activate Cloud Shell.
At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.
Cloud Shell unterstützt die
/dev/urandom
-Befehle in
zum Generieren von Pseudozufallszahlen.
gcloud
So verwenden Sie bereits ein Onlineterminal mit der gcloud CLI aktivieren Sie Cloud Shell:
Unten auf dieser Seite wird eine Cloud Shell-Sitzung gestartet und eine Eingabeaufforderung angezeigt. Das Initialisieren der Sitzung kann einige Sekunden dauern.
Cloud Shell unterstützt die
/dev/urandom
-Befehle in zum Generieren von Pseudozufallszahlen.- Google Cloud-Projekt erstellen oder auswählen.
-
Erstellen Sie ein Google Cloud-Projekt:
gcloud projects create PROJECT_ID
-
Wählen Sie das von Ihnen erstellte Google Cloud-Projekt aus:
gcloud config set project PROJECT_ID
-
- Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
- Aktivieren Sie die Artifact Registry, Cloud Build,
Cloud Run, Cloud Storage, Eventarc,
and Workflows APIs:
gcloud services enable artifactregistry.googleapis.com \ cloudbuild.googleapis.com \ eventarc.googleapis.com \ run.googleapis.com \ storage.googleapis.com \ workflows.googleapis.com
- Dienstkonto für Ihren Workflow zur Authentifizierung erstellen
mit anderen Google Cloud-Diensten verknüpfen
und ihm die entsprechenden Rollen zuweisen.
- Erstellen Sie das Dienstkonto:
gcloud iam service-accounts create SERVICE_ACCOUNT_NAME
Ersetzen Sie
SERVICE_ACCOUNT_NAME
durch einen Namen für das Dienstkonto. - Weisen Sie dem nutzerverwalteten Dienstkonto, das Sie im vorherigen Schritt erstellt haben, Rollen zu. Führen Sie den folgenden Befehl jeweils einmal aus:
IAM-Rollen oder das Flag
--role
verwenden mehrere Male mit einem einzigen Befehl:roles/eventarc.eventReceiver
: zum Empfangen von Ereignissenroles/logging.logWriter
: zum Schreiben von Logsroles/run.admin
: zum Ausführen des Cloud Run-Jobsroles/workflows.invoker
: zum Aufrufen von Workflows
gcloud projects add-iam-policy-binding PROJECT_ID \ --member=serviceAccount:SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com \ --role=ROLE
Ersetzen Sie Folgendes:
PROJECT_ID
: die ID des Projekts, in dem Sie das Dokument erstellt haben das DienstkontoROLE
: Die Rolle, die dem nutzerverwalteten Dienstkonto zugewiesen werden soll.
- Erstellen Sie das Dienstkonto:
- Bevor Sie einen Trigger für direkte Ereignisse aus Cloud Storage erstellen, weisen Sie dem Cloud Storage-Dienst-Agent die Pub/Sub-Publisher-Rolle (
roles/pubsub.publisher
) zu:SERVICE_ACCOUNT="$(gcloud storage service-agent --project=PROJECT_ID)" gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:${SERVICE_ACCOUNT}" \ --role='roles/pubsub.publisher'
- Wenn Sie den Cloud Pub/Sub-Dienst-Agent am oder vor dem 8. April 2021 aktiviert haben, um authentifizierte Pub/Sub-Push-Anfragen zu unterstützen, weisen Sie dem von Google verwalteten Dienstkonto die Rolle „Ersteller von Dienstkonto-Tokens“ (
roles/iam.serviceAccountTokenCreator
) zu. Andernfalls wird diese Rolle standardmäßig zugewiesen:gcloud projects add-iam-policy-binding PROJECT_ID \ --member=serviceAccount:service-PROJECT_NUMBER@gcp-sa-pubsub.iam.gserviceaccount.com \ --role=roles/iam.serviceAccountTokenCreator
Ersetzen Sie PROJECT_NUMBER
durch Ihre Google Cloud-Projektnummer. Sie finden Ihre Projektnummer auf der Willkommensseite der Google Cloud Console oder durch Ausführen des folgenden Befehls:
gcloud projects describe PROJECT_ID --format='value(projectNumber)'
Terraform
So verwenden Sie bereits ein Onlineterminal mit der gcloud CLI aktivieren Sie Cloud Shell:
Unten auf dieser Seite wird eine Cloud Shell-Sitzung gestartet und eine Eingabeaufforderung angezeigt. Das Initialisieren der Sitzung kann einige Sekunden dauern.
Cloud Shell unterstützt die
/dev/urandom
-Befehle in zum Generieren von Pseudozufallszahlen.- Google Cloud-Projekt erstellen oder auswählen.
-
Erstellen Sie ein Google Cloud-Projekt:
gcloud projects create PROJECT_ID
-
Wählen Sie das von Ihnen erstellte Google Cloud-Projekt aus:
gcloud config set project PROJECT_ID
-
- Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
- Aktivieren Sie die Artifact Registry, Cloud Build,
Cloud Run, Cloud Storage, Eventarc,
and Workflows APIs:
gcloud services enable artifactregistry.googleapis.com \ cloudbuild.googleapis.com \ eventarc.googleapis.com \ run.googleapis.com \ storage.googleapis.com \ workflows.googleapis.com
Dienstkonto für Ihren Workflow zur Authentifizierung erstellen mit anderen Google Cloud-Diensten verknüpfen und ihm die entsprechenden Rollen zuweisen. Um direkte Ereignisse aus Cloud Storage zu unterstützen, weisen Sie dem Cloud Storage-Dienst-Agent außerdem die Rolle Pub/Sub-Publisher (
roles/pubsub.publisher
) zu.Ändern Sie die
main.tf
-Datei wie im folgenden Beispiel gezeigt. Weitere Informationen finden Sie in der Dokumentation zum Google-Anbieter für TerraformInformationen zum Anwenden oder Entfernen einer Terraform-Konfiguration finden Sie unter Grundlegende Terraform-Befehle.
In einem typischen Terraform-Workflow wird der gesamte Plan auf einmal angewendet. Für diese Anleitung können Sie jedoch die Ausrichtung auf eine bestimmte Ressource festlegen. Beispiel:
terraform apply -target="google_service_account.workflows"
- Wenn Sie den Cloud Pub/Sub-Dienst-Agent am oder vor dem 8. April 2021 aktiviert haben, um authentifizierte Pub/Sub-Push-Anfragen zu unterstützen, weisen Sie dem von Google verwalteten Dienstkonto die Rolle „Ersteller von Dienstkonto-Tokens“ (
roles/iam.serviceAccountTokenCreator
) zu. Andernfalls wird diese Rolle standardmäßig zugewiesen:gcloud projects add-iam-policy-binding PROJECT_ID \ --member=serviceAccount:service-PROJECT_NUMBER@gcp-sa-pubsub.iam.gserviceaccount.com \ --role=roles/iam.serviceAccountTokenCreator
Ersetzen Sie PROJECT_NUMBER
durch Ihre Google Cloud-Projektnummer. Sie finden Ihre Projektnummer auf der Willkommensseite der Google Cloud Console oder durch Ausführen des folgenden Befehls:
gcloud projects describe PROJECT_ID --format='value(projectNumber)'
Cloud Run-Job erstellen
In dieser Anleitung wird ein Beispiel für einen Cloud Run-Job von GitHub verwendet. Der Job liest Daten aus einer Eingabedatei in Cloud Storage und führt eine beliebige Verarbeitung für jede Zeile in der Datei aus.
Rufen Sie den Beispielcode ab, indem Sie das Repository der Beispiel-App in Ihr lokales Computer:
git clone https://github.com/GoogleCloudPlatform/jobs-demos.git
Alternativ können Sie Beispiel als ZIP-Datei herunterladen und extrahieren sie.
Wechseln Sie zu dem Verzeichnis, das den Beispielcode enthält:
cd jobs-demos/parallel-processing
Erstellen Sie einen Cloud Storage-Bucket zum Speichern einer Eingabedatei, in die geschrieben werden kann und die ein Ereignis auslöst:
Console
- Wechseln Sie in der Cloud Console zur Seite Cloud Storage-Buckets.
- Klicke auf Hinzufügen Erstellen.
- Geben Sie auf der Seite Bucket erstellen einen Namen für den Bucket ein:
Ersetzen Sieinput-PROJECT_ID
PROJECT_ID
durch die ID Ihres Google Cloud-Projekts. - Behalten Sie die anderen Standardeinstellungen bei.
- Klicken Sie auf Erstellen.
gcloud
Führen Sie den Befehl
gcloud storage buckets create
aus:gcloud storage buckets create gs://input-PROJECT_ID
Wenn die Anfrage erfolgreich ist, gibt der Befehl die folgende Meldung zurück:
Creating gs://input-PROJECT_ID/...
Terraform
Verwenden Sie zum Erstellen eines Cloud Storage-Buckets die Ressource
google_storage_bucket
und ändern Sie die Dateimain.tf
wie im folgenden Beispiel gezeigt.Informationen zum Anwenden oder Entfernen einer Terraform-Konfiguration finden Sie unter Grundlegende Terraform-Befehle.
In einem typischen Terraform-Workflow wird der gesamte Plan auf einmal angewendet. Für diese Anleitung können Sie jedoch eine bestimmte Ressource als Ziel festlegen. Beispiel:
terraform apply -target="random_id.bucket_name_suffix"
und
terraform apply -target="google_storage_bucket.default"
- Wechseln Sie in der Cloud Console zur Seite Cloud Storage-Buckets.
Erstellen Sie ein Artifact Registry-Standard-Repository zum Speichern Ihrer Container-Image:
Console
Rufen Sie in der Google Cloud Console die Seite Repositories der Artifact Registry auf:
Klicken Sie auf
Repository erstellen.Geben Sie einen Namen für das Repository ein, z. B.
my-repo
. Repository-Namen können für jeden Repository-Speicherort in einem Projekt nur einmal vorkommen.Behalten Sie das Standardformat bei. Dieses sollte Docker sein.
Behalten Sie den Standardmodus bei. Dieser sollte Standard lauten.
Wählen Sie als Region us-central1 (Iowa) aus.
Behalten Sie alle anderen Standardeinstellungen bei.
Klicken Sie auf Erstellen.
gcloud
Führen Sie diesen Befehl aus:
gcloud artifacts repositories create REPOSITORY \ --repository-format=docker \ --location=us-central1
Ersetzen Sie
REPOSITORY
durch einen eindeutigen Namen für das Repository, z. B.my-repo
. Repository-Namen können für jeden Repository-Speicherort in einem Projekt nur einmal vorkommen.Terraform
Verwenden Sie zum Erstellen eines Artifact Registry-Repositories die Ressource
google_artifact_registry_repository
und ändern Sie die Dateimain.tf
wie im folgenden Beispiel gezeigt.In einem typischen Terraform-Workflow wenden Sie den gesamten Plan einmal. In dieser Anleitung können Sie jedoch zu einer bestimmten Ressource. Beispiel:
terraform apply -target="google_artifact_registry_repository.default"
Erstellen Sie das Container-Image mit einem Standard-Buildpack von Google Cloud:
export SERVICE_NAME=parallel-job gcloud builds submit \ --pack image=us-central1-docker.pkg.dev/PROJECT_ID/REPOSITORY/${SERVICE_NAME}
Ersetzen Sie
REPOSITORY
durch den Namen Ihres Artifact Registry-Repository.Es kann einige Minuten dauern, bis der Build abgeschlossen ist.
Erstellen Sie einen Cloud Run-Job, der das Container-Image bereitstellt:
Console
Rufen Sie in der Google Cloud Console die Seite Cloud Run auf:
Klicken Sie auf Job erstellen, um das Formular Job erstellen aufzurufen.
- Wählen Sie im Formular
us-central1-docker.pkg.dev/PROJECT_ID/REPOSITORY/parallel-job:latest
als URL des Artifact Registry-Container-Images aus. - Optional: Geben Sie als Jobnamen
parallel-job
ein. - Optional: Wählen Sie als Region us-central1 (Iowa) aus.
- Geben Sie für die Anzahl der Aufgaben, die im Job ausgeführt werden sollen,
10
ein. Ein Job ist erst erfolgreich, wenn alle Aufgaben erfolgreich ausgeführt werden. Von werden die Aufgaben parallel ausgeführt.
- Wählen Sie im Formular
Maximieren Sie den Abschnitt Container, Variablen und Secrets, Verbindungen, Sicherheit und behalten Sie alle Standardeinstellungen mit Ausnahme der folgenden bei:
Klicken Sie auf den Tab Allgemein.
- Geben Sie für den Containerbefehl
python
ein. - Geben Sie als Containerargument
process.py
ein.
- Geben Sie für den Containerbefehl
Klicken Sie auf den Tab Variablen und Secrets.
- Klicken Sie auf Variable hinzufügen und geben Sie
INPUT_BUCKET
für den Namen undinput-PROJECT_ID
für den Wert ein. - Klicken Sie auf Variable hinzufügen und geben Sie
INPUT_FILE
für das name undinput_file.txt
für den Wert.
- Klicken Sie auf Variable hinzufügen und geben Sie
Klicken Sie auf Erstellen, um den Job zu erstellen.
gcloud
Legen Sie die Standard-Cloud Run-Region fest:
gcloud config set run/region us-central1
Erstellen Sie den Cloud Run-Job:
gcloud run jobs create parallel-job \ --image us-central1-docker.pkg.dev/PROJECT_ID/REPOSITORY/parallel-job:latest \ --command python \ --args process.py \ --tasks 10 \ --set-env-vars=INPUT_BUCKET=input-PROJECT_ID,INPUT_FILE=input_file.txt
Wenn Sie kein Tag für Image-Tag, Artifact Registry sucht nach dem Image mit dem Standard-
latest
-Tag.Eine vollständige Liste der beim Erstellen eines Jobs verfügbaren Optionen finden Sie unter den Befehl gcloud run Jobs create Befehlszeilendokumentation.
Sobald der Job erstellt wurde, sollten Sie eine Meldung mit dem Hinweis sehen, Erfolg haben.
Terraform
Verwenden Sie zum Erstellen eines Cloud Run-Jobs die Ressource
google_cloud_run_v2_job
und ändern Sie die Dateimain.tf
wie im folgenden Beispiel gezeigt.In einem typischen Terraform-Workflow wird der gesamte Plan auf einmal angewendet. In dieser Anleitung können Sie jedoch zu einer bestimmten Ressource. Beispiel:
terraform apply -target="google_cloud_run_v2_job.default"
Workflow bereitstellen, der den Cloud Run-Job ausführt
Workflow definieren und bereitstellen, der den Cloud Run-Job ausführt die Sie gerade erstellt haben. Eine Workflow-Definition besteht aus einer Reihe von Schritten mit der Workflows-Syntax:
Console
Wechseln Sie in der Google Cloud Console zur Seite Workflows:
Klicken Sie auf
Erstellen.Geben Sie einen Namen für den neuen Workflow ein, z. B.
cloud-run-job-workflow
.Wählen Sie als Region us-central1 (Iowa) aus.
Wählen Sie im Feld Dienstkonto das zuvor erstellte Dienstkonto aus.
Das Dienstkonto dient als Identität des Workflows. Sie sollten wurde dem Dienstkonto bereits die Rolle Cloud Run-Administrator zugewiesen. damit der Workflow den Cloud Run-Job ausführen kann.
Klicken Sie auf Weiter.
Geben Sie im Workflow-Editor die Definition für Ihren Workflow ein:
Klicken Sie auf Bereitstellen.
gcloud
Erstellen Sie eine Quellcodedatei für Ihren Workflow:
touch cloud-run-job-workflow.yaml
Kopieren Sie die folgende Workflowdefinition in Ihre Quellcodedatei:
Stellen Sie den Workflow bereit. Geben Sie hierzu den folgenden Befehl ein:
gcloud workflows deploy cloud-run-job-workflow \ --location=us-central1 \ --source=cloud-run-job-workflow.yaml \ --service-account=SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com
Ersetzen Sie Folgendes:
SERVICE_ACCOUNT_NAME
: der Name von das zuvor erstellte DienstkontoPROJECT_ID
: die ID Ihres Google Cloud-Projekts
Das Dienstkonto dient als Identität des Workflows. Sie sollten dem Dienstkonto bereits die Rolle
roles/run.admin
zugewiesen haben, damit der Workflow den Cloud Run-Job ausführen kann.
Terraform
Verwenden Sie zum Erstellen eines Workflows die Ressource google_workflows_workflow
und ändern Sie die Datei main.tf
wie im folgenden Beispiel gezeigt.
Informationen zum Anwenden oder Entfernen einer Terraform-Konfiguration finden Sie unter Grundlegende Terraform-Befehle.
In einem typischen Terraform-Workflow wird der gesamte Plan auf einmal angewendet. In dieser Anleitung können Sie jedoch . Beispiel:
terraform apply -target="google_workflows_workflow.default"
Der Workflow führt Folgendes aus:
init
-Schritt: Nimmt ein Cloud Storage-Ereignis als Argument entgegen und legt dann die erforderlichen Variablen fest.Schritt
check_input_file
: Prüft, ob der im Ereignis angegebene Cloud Storage-Bucket der Bucket ist, der vom Cloud Run-Job verwendet wird.- Wenn ja, fährt der Workflow mit Schritt
run_job
fort. - Andernfalls wird der Workflow beendet und die weitere Verarbeitung unterbrochen.
- Wenn ja, fährt der Workflow mit Schritt
Schritt
run_job
: Hier wird diegoogleapis.run.v1.namespaces.jobs.run
-Methode des Cloud Run Admin API-Connectors verwendet, um den Job auszuführen. Die Namen des Cloud Storage-Buckets und der Datendatei werden als Überschreibungsvariablen vom Workflow an den Job übergeben.Schritt
finish
: Gibt Informationen zur Jobausführung als Ergebnis von des Workflows.
Eventarc-Trigger für den Workflow erstellen
Wenn Sie den Workflow und damit den Cloud Run-Job automatisch ausführen möchten, sobald die Eingabedatendatei aktualisiert wird, erstellen Sie einen Eventarc-Trigger, der auf Cloud Storage-Ereignisse im Bucket reagiert, der die Eingabedatendatei enthält.
Console
Wechseln Sie in der Google Cloud Console zur Seite Workflows:
Klicken Sie auf den Namen des Workflows, z. B.
cloud-run-job-workflow
.Klicken Sie auf der Seite Workflowdetails auf
Bearbeiten:Gehen Sie auf der Seite Workflow bearbeiten im Bereich Trigger so vor: Klicken Sie auf Neuen Trigger hinzufügen > Eventarc
Der Bereich Eventarc-Trigger wird geöffnet.
Geben Sie im Feld Triggername einen Namen für den Trigger ein, z. B.
cloud-run-job-workflow-trigger
.Wählen Sie in der Liste Ereignisanbieter die Option Cloud Storage aus.
Wählen Sie in der Liste Ereignis google.cloud.storage.object.v1.finalized
Wählen Sie im Feld Bucket den Bucket mit der Eingabedatendatei aus. Der Bucket-Name hat das Format
input-PROJECT_ID
Wählen Sie im Feld Dienstkonto das zuvor erstellte Dienstkonto aus.
Das Dienstkonto dient als Identität des Triggers. Sie sollten dem Dienstkonto bereits die folgenden Rollen zugewiesen:
- Eventarc Event Receiver: zum Empfangen von Ereignissen
- Workflow-Aufrufer: zum Ausführen von Workflows
Klicken Sie auf Trigger speichern.
Der Eventarc-Trigger wird jetzt unter Trigger angezeigt. auf der Seite Workflow bearbeiten.
Klicken Sie auf Weiter.
Klicken Sie auf Bereitstellen.
gcloud
Erstellen Sie einen Eventarc-Trigger mit dem folgenden Befehl:
gcloud eventarc triggers create cloud-run-job-workflow-trigger \ --location=us \ --destination-workflow=cloud-run-job-workflow \ --destination-workflow-location=us-central1 \ --event-filters="type=google.cloud.storage.object.v1.finalized" \ --event-filters="bucket=input-PROJECT_ID" \ --service-account=SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com
Ersetzen Sie Folgendes:
PROJECT_ID
ist die ID Ihres Google Cloud-ProjektsSERVICE_ACCOUNT_NAME
: der Name des Dienstes Konto, das Sie zuvor erstellt haben.
Das Dienstkonto dient als Identität des Triggers. Sie sollten dem Dienstkonto bereits die folgenden Rollen zugewiesen:
roles/eventarc.eventReceiver
: zum Empfangen von Ereignissenroles/workflows.invoker
: zum Ausführen von Workflows
Terraform
Verwenden Sie zum Erstellen eines Triggers die Ressource google_eventarc_trigger
und ändern Sie die Datei main.tf
wie im folgenden Beispiel gezeigt.
Informationen zum Anwenden oder Entfernen einer Terraform-Konfiguration finden Sie unter Grundlegende Terraform-Befehle.
In einem typischen Terraform-Workflow wird der gesamte Plan auf einmal angewendet. In dieser Anleitung können Sie jedoch . Beispiel:
terraform apply -target="google_eventarc_trigger.default"
Jedes Mal, wenn eine Datei in den Cloud Storage-Bucket mit der Eingabedatendatei hochgeladen oder überschrieben wird, wird der Workflow mit dem entsprechenden Cloud Storage-Ereignis als Argument ausgeführt.
Workflow auslösen
Testen Sie das End-to-End-System, indem Sie die Eingabedatendatei in Cloud Storage aktualisieren.
Generieren Sie neue Daten für die Eingabedatei und laden Sie sie an den vom Cloud Run-Job erwarteten Speicherort in Cloud Storage hoch:
base64 /dev/urandom | head -c 100000 >input_file.txt gcloud storage cp input_file.txt gs://input-PROJECT_ID/input_file.txt
Wenn Sie einen Cloud Storage-Bucket mit Terraform erstellt haben, können Sie den Namen des Buckets mit dem folgenden Befehl abrufen:
gcloud storage buckets list gs://input*
Die Ausführung des Cloud Run-Jobs kann einige Minuten dauern.
Prüfen Sie, ob der Cloud Run-Job wie erwartet ausgeführt wurde, indem Sie sich die Jobausführungen ansehen:
gcloud config set run/region us-central1 gcloud run jobs executions list --job=parallel-job
In der Ausgabe sollte eine erfolgreiche Jobausführung angezeigt werden, die angibt, dass
10/10
Aufgaben abgeschlossen wurden.
Weitere Informationen zum Auslösen eines Workflows mit Ereignissen oder Pub/Sub-Nachrichten
Bereinigen
Wenn Sie ein neues Projekt für diese Anleitung erstellt haben, löschen Sie das Projekt. Wenn Sie ein vorhandenes Projekt verwendet haben und es beibehalten möchten, ohne die Änderungen in dieser Anleitung hinzuzufügen, löschen Sie die für die Anleitung erstellten Ressourcen.
Projekt löschen
Am einfachsten vermeiden Sie weitere Kosten durch Löschen des für die Anleitung erstellten Projekts.
So löschen Sie das Projekt:
- In the Google Cloud console, go to the Manage resources page.
- In the project list, select the project that you want to delete, and then click Delete.
- In the dialog, type the project ID, and then click Shut down to delete the project.
Anleitungsressourcen löschen
Löschen Sie die in dieser Anleitung erstellten Ressourcen:
Löschen Sie den Eventarc-Trigger:
gcloud eventarc triggers delete cloud-run-job-workflow-trigger --location=us
So löschen Sie den Workflow:
gcloud workflows delete cloud-run-job-workflow --location=us-central1
Löschen Sie den Cloud Run-Job:
gcloud run jobs delete parallel-job
Löschen Sie den Cloud Storage-Bucket, der für die Eingabedaten erstellt wurde:
gcloud storage rm --recursive gs://input-PROJECT_ID/
Löschen Sie das Artifact Registry-Repository:
gcloud artifacts repositories delete REPOSITORY --location=us-central1