Bei der Ausführung eines Workflows wird die aktuelle Workflowdefinition ausgeführt, die dem Workflow zugeordnet ist.
Sie können Laufzeitargumente in einer Workflowausführungsanfrage übergeben und auf diese mithilfe einer Workflow-Variablen. Weitere Informationen finden Sie unter Laufzeitargumente in einer Ausführungsanfrage übergeben
Nach Abschluss einer Workflowausführung werden der Verlauf und die Ergebnisse für einen begrenzten Zeitraum gespeichert. Weitere Informationen finden Sie unter Kontingente und Limits.
Hinweis
Von Ihrer Organisation definierte Sicherheitsbeschränkungen verhindern möglicherweise, dass die folgenden Schritte ausgeführt werden. Informationen zur Fehlerbehebung finden Sie unter Anwendungen in einer eingeschränkten Google Cloud-Umgebung entwickeln.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
- Wenn ein Workflow auf andere Google Cloud-Ressourcen zugreift, muss er einem Dienstkonto zugeordnet werden, das die richtigen Berechtigungen hat. Informationen dazu, welches Dienstkonto einem vorhandenen Workflow zugeordnet ist, finden Sie unter Verknüpftes Dienstkonto eines Workflows prüfen.
Zum Erstellen einer Ressource und Anhängen eines Dienstkontos benötigen Sie zum Erstellen dieser Ressource und zum Übernehmen der Identität des Dienstkontos, die Sie an die Ressource anhängen. Weitere Informationen finden Sie unter Dienstkontoberechtigungen:
- Stellen Sie einen Workflow mithilfe der Google Cloud Console oder die Google Cloud CLI.
Workflow ausführen
Sie können einen Workflow mit den Clientbibliotheken in der Google Cloud Console ausführen, über die gcloud CLI oder durch Senden einer Anfrage an die Workflows REST API.
Console
Um einen Workflow auszuführen, gehen Sie in der Google Cloud Console zur Seite Workflows:
Wählen Sie auf der Seite Workflows einen Workflow aus, der zum zugehörigen Detailseite.
Klicken Sie auf der Seite Workflow-Details auf play_arrow Ausführen.
Auf der Seite Workflow ausführen können Sie im Bereich Eingabe optionale Laufzeitargumente eingeben, die vor der Ausführung an Ihren Workflow übergeben werden. Argumente müssen im JSON-Format vorliegen. Beispiel:
{"animal":"cat"}
. Wenn Ihr Workflow keine Laufzeitargumente verwendet, lassen Sie dieses Feld leer.Optional können Sie die Ebene des Aufruf-Loggings angeben, die Sie auf die Ausführung des Workflows anwenden möchten. Wählen Sie im Bereich Anrufliste eine der folgenden Optionen aus:
- Nicht angegeben: Es wird keine Logging-Ebene angegeben. Das ist die Standardeinstellung. Eine Ausführungslogebene hat Vorrang vor einer Workflow-Logebene, sofern keine Ausführungslogebene angegeben ist (Standardeinstellung); In diesem Fall wird die Workflow-Logebene genutzt.
- Nur Fehler: Alle erfassten Ausnahmen sowie das Beenden eines Aufrufs aufgrund einer Ausnahme werden protokolliert.
- Alle Aufrufe: Alle Aufrufe von untergeordneten Workflows oder Bibliotheksfunktionen und deren Ergebnisse werden protokolliert.
- Keine Protokolle: Es werden keine Anrufe protokolliert.
Klicken Sie auf Ausführen.
Auf der Seite Ausführungsdetails sehen Sie die Ergebnisse der Ausführungen Ausführung, einschließlich Ausgabe, Ausführungs-ID und Status sowie des aktuellen oder letzten Schritts der Workflowausführung. Weitere Informationen finden Sie unter Auf Ergebnisse der Workflowausführung zugreifen.
gcloud
Öffnen Sie ein Terminalfenster.
Suchen Sie den Namen des Workflows, den Sie ausführen möchten. Wenn Sie den Namen des Workflows nicht kennen, können Sie den folgenden Befehl eingeben, um alle Workflows aufzulisten:
gcloud workflows list
Sie können den Workflow entweder mit dem Befehl
gcloud workflows run
oder dem Befehlgcloud workflows execute
ausführen:Führen Sie den Workflow aus und warten Sie, bis die Ausführung abgeschlossen ist:
gcloud workflows run WORKFLOW_NAME \ --call-log-level=CALL_LOGGING_LEVEL \ --data=DATA
Führen Sie den Workflow aus, ohne auf den Abschluss des Ausführungsversuchs zu warten:
gcloud workflows execute WORKFLOW_NAME \ --call-log-level=CALL_LOGGING_LEVEL \ --data=DATA
Ersetzen Sie Folgendes:
WORKFLOW_NAME
: Der Name des Workflows.CALL_LOGGING_LEVEL
(optional): Ebene des Aufruf-Loggings, das während der Ausführung angewendet werden soll. Kann einer der folgenden Werte sein:none
: Es wurde keine Logging-Ebene angegeben. Das ist die Standardeinstellung. Eine Ausführungslogebene hat Vorrang vor einer Workflow-Logebene, sofern keine Ausführungslogebene angegeben ist (Standardeinstellung); In diesem Fall wird die Workflow-Logebene genutzt.log-errors-only
: Es werden alle erfassten Ausnahmen sowie das Beenden eines Aufrufs aufgrund einer Ausnahme protokolliertlog-all-calls
: Alle Aufrufe von untergeordneten Workflows oder Bibliotheksfunktionen und deren Ergebnisse werden protokolliert.log-none
: Kein Aufruf-Logging.
DATA
(optional): Laufzeitargumente für Ihren Workflow im JSON-Format.
Wenn Sie
gcloud workflows execute
ausgeführt haben, wird die eindeutige ID des Workflow-Ausführungsversuchs zurückgegeben und die Ausgabe sieht in etwa so aus:To view the workflow status, you can use following command: gcloud workflows executions describe b113b589-8eff-4968-b830-8d35696f0b33 --workflow workflow-2 --location us-central1
Geben Sie den im vorherigen Schritt zurückgegebenen Befehl ein, um den Status der Ausführung aufzurufen.
Wenn der Ausführungsversuch erfolgreich ist, sieht die Ausgabe in etwa so aus:
gefolgt von einem state
, der den Erfolg des Workflows angibt, und einem status
gibt den letzten
Workflowschritt der Ausführung an.
argument: '{"searchTerm":"Friday"}' endTime: '2022-06-22T12:17:53.086073678Z' name: projects/1051295516635/locations/us-central1/workflows/myFirstWorkflow/executions/c4dffd1f-13db-46a0-8a4a-ee39c144cb96 result: '["Friday","Friday the 13th (franchise)","Friday Night Lights (TV series)","Friday the 13th (1980 film)","Friday the 13th","Friday the 13th (2009 film)","Friday the 13th Part III","Friday the 13th Part 2","Friday (Rebecca Black song)","Friday Night Lights (film)"]' startTime: '2022-06-22T12:17:52.799387653Z' state: SUCCEEDED status: currentSteps: - routine: main step: returnOutput workflowRevisionId: 000001-ac2
Clientbibliotheken
In den folgenden Beispielen wird davon ausgegangen, dass Sie bereits einen Workflow bereitgestellt haben.
myFirstWorkflow
Installieren Sie die Clientbibliothek und richten Sie Ihre Entwicklungsumgebung ein. Für finden Sie in der Übersicht über Workflow-Clientbibliotheken
Klonen Sie das Repository der Beispiel-App auf Ihren lokalen Computer:
Java
git clone https://github.com/GoogleCloudPlatform/java-docs-samples.git
Sie können auch das Beispiel als ZIP-Datei herunterladen und extrahieren.
Node.js
git clone https://github.com/GoogleCloudPlatform/nodejs-docs-samples.git
Sie können auch das Beispiel als ZIP-Datei herunterladen und extrahieren.
Python
git clone https://github.com/GoogleCloudPlatform/python-docs-samples.git
Sie können auch das Beispiel als ZIP-Datei herunterladen und extrahieren.
Wechseln Sie in das Verzeichnis, das den Workflows-Beispielcode enthält:
Java
cd java-docs-samples/workflows/cloud-client/
Node.js
cd nodejs-docs-samples/workflows/quickstart/
Python
cd python-docs-samples/workflows/cloud-client/
Sehen Sie sich den Beispielcode an:
Java
Node.js (JavaScript)
Node.js (TypeScript)
Python
Im Beispiel wird Folgendes ausgeführt:
- Richtet die Cloud-Clientbibliotheken für Workflows ein.
- Führt einen Workflow aus.
- Fragt die Workflow-Ausführung (mit exponentiellem Backoff) ab, bis die Ausführung beendet.
- Druckt die Ausführungsergebnisse.
Installieren Sie zuerst die Abhängigkeiten, um das Beispiel auszuführen:
Java
mvn compile
Node.js (JavaScript)
npm install
Node.js (TypeScript)
npm install && npm run build
Python
pip3 install -r requirements.txt
Führen Sie das Skript aus:
Java
GOOGLE_CLOUD_PROJECT=PROJECT_ID LOCATION=CLOUD_REGION WORKFLOW=WORKFLOW_NAME mvn compile exec:java -Dexec.mainClass=com.example.workflows.WorkflowsQuickstart
Node.js (JavaScript)
npm start PROJECT_ID CLOUD_REGION WORKFLOW_NAME
Node.js (TypeScript)
npm start PROJECT_ID CLOUD_REGION WORKFLOW_NAME
Python
GOOGLE_CLOUD_PROJECT=PROJECT_ID LOCATION=CLOUD_REGION WORKFLOW=WORKFLOW_NAME python3 main.py
Ersetzen Sie Folgendes:
PROJECT_ID
(erforderlich): die Projekt-ID des Google Cloud-ProjektCLOUD_REGION
: Der Speicherort für den Workflow (Standardeinstellung:us-central1
)WORKFLOW_NAME
: Die ID des Workflows (Standard:myFirstWorkflow
)
Die Ausgabe sieht in etwa so aus:
Execution finished with state: SUCCEEDED ["Sunday","Sunday in the Park with George","Sunday shopping","Sunday Bloody Sunday","Sunday Times Golden Globe Race","Sunday All Stars","Sunday Night (South Korean TV series)","Sunday Silence","Sunday Without God","Sunday Independent (Ireland)"]
REST API
Um eine neue Ausführung mit der neuesten Version eines bestimmten Workflows zu erstellen, verwenden Sie
die
projects.locations.workflows.executions.create
.
Für die Authentifizierung benötigen Sie ein Dienstkonto mit ausreichend
zum Ausführen des Workflows. Sie können beispielsweise einem Dienstkonto die Rolle Workflows-Aufrufer (roles/workflows.invoker
) zuweisen, damit das Konto die Berechtigung zum Auslösen der Workflowausführung hat. Weitere Informationen finden Sie unter
Rufen Sie Workflows auf.
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
PROJECT_NUMBER
: Ihr Google Cloud-Team Projektnummer, die in den IAM- und Verwaltung Einstellungen.LOCATION
: die Region, in der der Workflow bereitgestellt wird, z. B.us-central1
.WORKFLOW_NAME
: der benutzerdefinierte Name für den Workflow, z. B.myFirstWorkflow
.PARAMETER
: Optional. Wenn der Workflow die Sie ausführen, Laufzeitargumente empfangen können, die Sie als Teil einer Ausführungsanfrage übergeben. können Sie in den Anfragetext einen String im JSON-Format einfügen, dessen Wert ein oder mehrere maskierte Parameter/Wert-Paare, z. B."{\"searchTerm\":\"asia\"}"
.VALUE
: Optional. Der Wert eines Parameter/Wert-Paar, das Ihr Workflow als Laufzeitargument empfangen kann.CALL_LOGGING_LEVEL
: Optional. Die Ebene des Aufruf-Loggings, die während der Ausführung angewendet werden soll. Standardmäßig ist keine Logging-Ebene angegeben und stattdessen wird die Workflow-Logebene angewendet. Weitere Informationen finden Sie unter Logs an Logging senden Eine der Folgendes:CALL_LOG_LEVEL_UNSPECIFIED
: Es wird keine Logging-Ebene angegeben und stattdessen wird die Workflow-Logebene angewendet. Das ist die Standardeinstellung. Andernfalls gilt die Ausführungslogebene und hat Vorrang vor der Workflow-Logebene.LOG_ERRORS_ONLY
: alle erfassten Ausnahmen protokollieren; oder wenn ein Anruf aufgrund einer Ausnahme beendet.LOG_ALL_CALLS
: Alle Aufrufe von untergeordneten Workflows oder Bibliotheksfunktionen und deren Ergebnisse werden protokolliert.LOG_NONE
: Kein Aufruf-Logging.
BACKLOG_EXECUTION
: Optional. Wenntrue
festgelegt ist, wird die Ausführung nicht zurückgestellt, wenn das Kontingent für die Parallelität aufgebraucht ist. Weitere Informationen finden Sie unter Ausführungsbacklogging verwalten
JSON-Text der Anfrage:
{ "argument": "{\"PARAMETER\":\"VALUE\"}", "callLogLevel": "CALL_LOGGING_LEVEL", "disableConcurrencyQuotaOverflowBuffering": "BACKLOG_EXECUTION" }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Bei Erfolg enthält der Antworttext eine neu erstellte Instanz von Execution
:
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/workflows/WORKFLOW_NAME/executions/EXECUTION_ID", "startTime": "2023-11-07T14:35:27.215337069Z", "state": "ACTIVE", "argument": "{\"PARAMETER\":\"VALUE\"}", "workflowRevisionId": "000001-2df", "callLogLevel": "CALL_LOGGING_LEVEL", "status": {} }
Status von Ausführungen prüfen
Es gibt mehrere Befehle, mit denen Sie den Status einer Workflowausführung prüfen können.
Geben Sie den folgenden Befehl ein, um eine Liste der Ausführungsversuche eines Workflows und ihrer IDs abzurufen:
gcloud workflows executions list WORKFLOW_NAME
Ersetzen Sie
WORKFLOW_NAME
durch den Namen des Workflows.Der Befehl gibt einen
NAME
-Wert zurück, der in etwa so aussieht:projects/PROJECT_NUMBER/locations/REGION/workflows/WORKFLOW_NAME/executions/EXECUTION_ID
Kopieren Sie die Ausführungs-ID, die im nächsten Befehl verwendet werden soll.
Geben Sie den folgenden Befehl ein, um den Status eines Ausführungsversuchs zu prüfen und auf den Abschluss des Versuchs zu warten:
gcloud workflows executions wait EXECUTION_ID
Ersetzen Sie
EXECUTION_ID
durch die ID des Ausführungsversuchs.Der Befehl wartet, bis der Ausführungsversuch abgeschlossen ist, und gibt dann die Ergebnisse zurück.
Um zu warten, bis die letzte Ausführung abgeschlossen ist, und dann das Ergebnis Ausführung abgeschlossen haben, geben Sie den folgenden Befehl ein:
gcloud workflows executions wait-last
Wenn Sie in derselben
gcloud
-Sitzung einen vorherigen Ausführungsversuch ausgeführt haben, wartet der Befehl auf den Abschluss des vorherigen Ausführungsversuchs und gibt dann die Ergebnisse der abgeschlossenen Ausführung zurück. Wenn kein vorheriger Versuch vorhanden ist,gcloud
gibt den folgenden Fehler zurück:ERROR: (gcloud.workflows.executions.wait-last) [NOT FOUND] There are no cached executions available.
Geben Sie den folgenden Befehl ein, um den Status der letzten Ausführung abzurufen:
gcloud workflows executions describe-last
Falls Sie in derselben
gcloud
-Sitzung bereits einen Ausführungsversuch unternommen haben, -Befehl gibt die Ergebnisse der letzten Ausführung zurück, auch wenn diese noch ausgeführt wird. Wenn kein vorheriger Versuch vorhanden ist, gibtgcloud
den folgenden Fehler zurück:ERROR: (gcloud.beta.workflows.executions.describe-last) [NOT FOUND] There are no cached executions available.
Filterausführungen
Sie können die Liste der Workflowausführungen, die von der Methode workflows.executions.list
zurückgegeben wird, filtern.
Sie können nach den folgenden Feldern filtern:
createTime
disableOverflowBuffering
duration
endTime
executionId
label
startTime
state
stepName
workflowRevisionId
Wenn Sie beispielsweise nach einem Label (labels."fruit":"apple"
) filtern möchten, können Sie eine API-Anfrage wie die folgende stellen:
GET https://workflowexecutions.googleapis.com/v1/projects/MY_PROJECT/locations/MY_LOCATION/workflows/MY_WORKFLOW/executions?view=full&filter=labels.%22fruit%22%3A%22apple%22"
Wobei:
view=full
gibt eine Ansicht an, mit der definiert wird, welche Felder in der Ausführungen zurückgegeben; in diesem Fall alle Datenlabels.%22fruit%22%3A%22apple%22
ist die URL-codierte Filtersyntax.
Weitere Informationen finden Sie unter AIP-160 – Filtern.
Ausführungsrückprotokoll verwalten
Mit der Ausführungsauslagerung können Sie clientseitige Wiederholungsversuche vermeiden, Ausführungsverzögerungen beseitigen und den Durchsatz maximieren. Zurückgestellte Ausführungen werden automatisch ausgeführt sobald ein Kontingent für die Nebenläufigkeit von Ausführungen verfügbar ist.
Es gibt eine maximale Anzahl aktiver Workflows
Ausführungen, die gleichzeitig
ausgeführt werden können. Wenn dieses Kontingent aufgebraucht ist und die Ausführungsaussetzung deaktiviert ist oder das Kontingent für ausstehende Ausführungen erreicht ist, schlagen alle neuen Ausführungen mit dem HTTP-Statuscode 429 Too many requests
fehl. Wenn die Ausführungsaussetzung aktiviert ist, werden die neuen Ausführungen erfolgreich ausgeführt und mit dem Status QUEUED
erstellt. Sobald das Kontingent für die Ausführungsparallelität verfügbar ist, werden die Ausführungen automatisch ausgeführt und erhalten den Status ACTIVE
.
Standardmäßig ist das Ausführungsrückprotokoll für alle Anfragen aktiviert (einschließlich derjenigen von Cloud Tasks ausgelöst) mit den folgenden Ausnahmen:
- Wenn Sie eine Ausführung mit einem
executions.run
- oderexecutions.create
-Connector in einem Workflow erstellen, ist das Backlogging der Ausführung standardmäßig deaktiviert. Sie können sie konfigurieren, indem Sie das FelddisableConcurrencyQuotaOverflowBuffering
der Ausführung explizit auffalse
setzen. - Bei Ausführungen, die durch Pub/Sub ausgelöst werden, ist das Backlogging deaktiviert und kann nicht konfiguriert werden.
Wichtige Hinweise:
- Ausgeführte Aufgaben werden nach dem FIFO-Prinzip (First In, First Out) gestartet.
- Ein
createTime
-Zeitstempelfeld gibt an, wann eine Ausführung erstellt wurde. Die Der ZeitstempelstartTime
gibt an, wann eine Ausführung automatisch aus und beginnt mit der Ausführung. Bei Ausführungen, die nicht zurückgestellt wurden, sind beide Zeitstempelwerte identisch. - Das Limit für zurückgestellte Ausführungen kann mithilfe des
Kontingentmesswert von
workflowexecutions.googleapis.com/executionbacklogentries
. Für Weitere Informationen finden Sie unter Kontingente ansehen und verwalten.
Ausführungsrückprotokoll deaktivieren
Sie können das Ausführungsrückprotokoll deaktivieren, indem Sie ein -Flag setzen, wenn Sie die Methode über die Google Cloud CLI. Beispiel:
gcloud workflows execute WORKFLOW_NAME --disable-concurrency-quota-overflow-buffering
Sie können die Ausführungsaussetzung auch deaktivieren, indem Sie das Feld disableConcurrencyQuotaOverflowBuffering
im JSON-Anfragetext auf true
setzen, wenn Sie eine Ausführungsanfrage an die Workflows REST API senden.
Beispiel:
{ "argument": {"arg1":"value1"}, "callLogLevel": "LOG_NONE", "disableConcurrencyQuotaOverflowBuffering": true }
Weitere Informationen finden Sie unter Workflow ausführen.