Workflow ausführen

Bei der Ausführung eines Workflows wird die aktuelle Workflowdefinition ausgeführt, die dem Workflow zugeordnet ist.

Sie können Laufzeitargumente in einer Workflowausführungsanfrage übergeben und auf diese mithilfe einer Workflow-Variablen. Weitere Informationen finden Sie unter Laufzeitargumente in einer Ausführungsanfrage übergeben

Nach Abschluss einer Workflowausführung werden der Verlauf und die Ergebnisse für einen begrenzten Zeitraum gespeichert. Weitere Informationen finden Sie unter Kontingente und Limits.

Hinweis

Von Ihrer Organisation definierte Sicherheitsbeschränkungen verhindern möglicherweise, dass die folgenden Schritte ausgeführt werden. Informationen zur Fehlerbehebung finden Sie unter Anwendungen in einer eingeschränkten Google Cloud-Umgebung entwickeln.

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  6. Wenn ein Workflow auf andere Google Cloud-Ressourcen zugreift, muss er einem Dienstkonto zugeordnet werden, das die richtigen Berechtigungen hat. Informationen dazu, welches Dienstkonto einem vorhandenen Workflow zugeordnet ist, finden Sie unter Verknüpftes Dienstkonto eines Workflows prüfen.

    Zum Erstellen einer Ressource und Anhängen eines Dienstkontos benötigen Sie zum Erstellen dieser Ressource und zum Übernehmen der Identität des Dienstkontos, die Sie an die Ressource anhängen. Weitere Informationen finden Sie unter Dienstkontoberechtigungen:

  7. Stellen Sie einen Workflow mithilfe der Google Cloud Console oder die Google Cloud CLI.

Workflow ausführen

Sie können einen Workflow mit den Clientbibliotheken in der Google Cloud Console ausführen, über die gcloud CLI oder durch Senden einer Anfrage an die Workflows REST API.

Console

  1. Um einen Workflow auszuführen, gehen Sie in der Google Cloud Console zur Seite Workflows:

    Zur Seite "Workflows"

  2. Wählen Sie auf der Seite Workflows einen Workflow aus, der zum zugehörigen Detailseite.

  3. Klicken Sie auf der Seite Workflow-Details auf Ausführen.

  4. Auf der Seite Workflow ausführen können Sie im Bereich Eingabe optionale Laufzeitargumente eingeben, die vor der Ausführung an Ihren Workflow übergeben werden. Argumente müssen im JSON-Format vorliegen. Beispiel: {"animal":"cat"}. Wenn Ihr Workflow keine Laufzeitargumente verwendet, lassen Sie dieses Feld leer.

  5. Optional können Sie die Ebene des Aufruf-Loggings angeben, die Sie auf die Ausführung des Workflows anwenden möchten. Wählen Sie im Bereich Anrufliste eine der folgenden Optionen aus:

    • Nicht angegeben: Es wird keine Logging-Ebene angegeben. Das ist die Standardeinstellung. Eine Ausführungslogebene hat Vorrang vor einer Workflow-Logebene, sofern keine Ausführungslogebene angegeben ist (Standardeinstellung); In diesem Fall wird die Workflow-Logebene genutzt.
    • Nur Fehler: Alle erfassten Ausnahmen sowie das Beenden eines Aufrufs aufgrund einer Ausnahme werden protokolliert.
    • Alle Aufrufe: Alle Aufrufe von untergeordneten Workflows oder Bibliotheksfunktionen und deren Ergebnisse werden protokolliert.
    • Keine Protokolle: Es werden keine Anrufe protokolliert.

  6. Klicken Sie auf Ausführen.

  7. Auf der Seite Ausführungsdetails sehen Sie die Ergebnisse der Ausführungen Ausführung, einschließlich Ausgabe, Ausführungs-ID und Status sowie des aktuellen oder letzten Schritts der Workflowausführung. Weitere Informationen finden Sie unter Auf Ergebnisse der Workflowausführung zugreifen.

gcloud

  1. Öffnen Sie ein Terminalfenster.

  2. Suchen Sie den Namen des Workflows, den Sie ausführen möchten. Wenn Sie den Namen des Workflows nicht kennen, können Sie den folgenden Befehl eingeben, um alle Workflows aufzulisten:

    gcloud workflows list
  3. Sie können den Workflow entweder mit dem Befehl gcloud workflows run oder dem Befehl gcloud workflows execute ausführen:

    • Führen Sie den Workflow aus und warten Sie, bis die Ausführung abgeschlossen ist:

      gcloud workflows run WORKFLOW_NAME \
          --call-log-level=CALL_LOGGING_LEVEL \
          --data=DATA
    • Führen Sie den Workflow aus, ohne auf den Abschluss des Ausführungsversuchs zu warten:

      gcloud workflows execute WORKFLOW_NAME \
          --call-log-level=CALL_LOGGING_LEVEL \
          --data=DATA

      Ersetzen Sie Folgendes:

      • WORKFLOW_NAME: Der Name des Workflows.
      • CALL_LOGGING_LEVEL (optional): Ebene des Aufruf-Loggings, das während der Ausführung angewendet werden soll. Kann einer der folgenden Werte sein:

        • none: Es wurde keine Logging-Ebene angegeben. Das ist die Standardeinstellung. Eine Ausführungslogebene hat Vorrang vor einer Workflow-Logebene, sofern keine Ausführungslogebene angegeben ist (Standardeinstellung); In diesem Fall wird die Workflow-Logebene genutzt.
        • log-errors-only: Es werden alle erfassten Ausnahmen sowie das Beenden eines Aufrufs aufgrund einer Ausnahme protokolliert
        • log-all-calls: Alle Aufrufe von untergeordneten Workflows oder Bibliotheksfunktionen und deren Ergebnisse werden protokolliert.
        • log-none: Kein Aufruf-Logging.
      • DATA (optional): Laufzeitargumente für Ihren Workflow im JSON-Format.

  4. Wenn Sie gcloud workflows execute ausgeführt haben, wird die eindeutige ID des Workflow-Ausführungsversuchs zurückgegeben und die Ausgabe sieht in etwa so aus:

     To view the workflow status, you can use following command:
     gcloud workflows executions describe b113b589-8eff-4968-b830-8d35696f0b33 --workflow workflow-2 --location us-central1

    Geben Sie den im vorherigen Schritt zurückgegebenen Befehl ein, um den Status der Ausführung aufzurufen.

Wenn der Ausführungsversuch erfolgreich ist, sieht die Ausgabe in etwa so aus: gefolgt von einem state, der den Erfolg des Workflows angibt, und einem status gibt den letzten Workflowschritt der Ausführung an.

argument: '{"searchTerm":"Friday"}'
endTime: '2022-06-22T12:17:53.086073678Z'
name: projects/1051295516635/locations/us-central1/workflows/myFirstWorkflow/executions/c4dffd1f-13db-46a0-8a4a-ee39c144cb96
result: '["Friday","Friday the 13th (franchise)","Friday Night Lights (TV series)","Friday
    the 13th (1980 film)","Friday the 13th","Friday the 13th (2009 film)","Friday the
    13th Part III","Friday the 13th Part 2","Friday (Rebecca Black song)","Friday Night
    Lights (film)"]'
startTime: '2022-06-22T12:17:52.799387653Z'
state: SUCCEEDED
status:
    currentSteps:
    - routine: main
        step: returnOutput
workflowRevisionId: 000001-ac2

Clientbibliotheken

In den folgenden Beispielen wird davon ausgegangen, dass Sie bereits einen Workflow bereitgestellt haben. myFirstWorkflow

  1. Installieren Sie die Clientbibliothek und richten Sie Ihre Entwicklungsumgebung ein. Für finden Sie in der Übersicht über Workflow-Clientbibliotheken

  2. Klonen Sie das Repository der Beispiel-App auf Ihren lokalen Computer:

    Java

    git clone https://github.com/GoogleCloudPlatform/java-docs-samples.git

    Sie können auch das Beispiel als ZIP-Datei herunterladen und extrahieren.

    Node.js

    git clone https://github.com/GoogleCloudPlatform/nodejs-docs-samples.git

    Sie können auch das Beispiel als ZIP-Datei herunterladen und extrahieren.

    Python

    git clone https://github.com/GoogleCloudPlatform/python-docs-samples.git

    Sie können auch das Beispiel als ZIP-Datei herunterladen und extrahieren.

  3. Wechseln Sie in das Verzeichnis, das den Workflows-Beispielcode enthält:

    Java

    cd java-docs-samples/workflows/cloud-client/

    Node.js

    cd nodejs-docs-samples/workflows/quickstart/

    Python

    cd python-docs-samples/workflows/cloud-client/

  4. Sehen Sie sich den Beispielcode an:

    Java

    // Imports the Google Cloud client library
    
    import com.google.cloud.workflows.executions.v1.CreateExecutionRequest;
    import com.google.cloud.workflows.executions.v1.Execution;
    import com.google.cloud.workflows.executions.v1.ExecutionsClient;
    import com.google.cloud.workflows.executions.v1.WorkflowName;
    import java.io.IOException;
    import java.util.concurrent.ExecutionException;
    
    public class WorkflowsQuickstart {
    
      private static final String PROJECT = System.getenv("GOOGLE_CLOUD_PROJECT");
      private static final String LOCATION = System.getenv().getOrDefault("LOCATION", "us-central1");
      private static final String WORKFLOW =
          System.getenv().getOrDefault("WORKFLOW", "myFirstWorkflow");
    
      public static void main(String... args)
          throws IOException, InterruptedException, ExecutionException {
        if (PROJECT == null) {
          throw new IllegalArgumentException(
              "Environment variable 'GOOGLE_CLOUD_PROJECT' is required to run this quickstart.");
        }
        workflowsQuickstart(PROJECT, LOCATION, WORKFLOW);
      }
    
      private static volatile boolean finished;
    
      public static void workflowsQuickstart(String projectId, String location, String workflow)
          throws IOException, InterruptedException, ExecutionException {
        // Initialize client that will be used to send requests. This client only needs
        // to be created once, and can be reused for multiple requests. After completing all of your
        // requests, call the "close" method on the client to safely clean up any remaining background
        // resources.
        try (ExecutionsClient executionsClient = ExecutionsClient.create()) {
          // Construct the fully qualified location path.
          WorkflowName parent = WorkflowName.of(projectId, location, workflow);
    
          // Creates the execution object.
          CreateExecutionRequest request =
              CreateExecutionRequest.newBuilder()
                  .setParent(parent.toString())
                  .setExecution(Execution.newBuilder().build())
                  .build();
          Execution response = executionsClient.createExecution(request);
    
          String executionName = response.getName();
          System.out.printf("Created execution: %s%n", executionName);
    
          long backoffTime = 0;
          long backoffDelay = 1_000; // Start wait with delay of 1,000 ms
          final long backoffTimeout = 10 * 60 * 1_000; // Time out at 10 minutes
          System.out.println("Poll for results...");
    
          // Wait for execution to finish, then print results.
          while (!finished && backoffTime < backoffTimeout) {
            Execution execution = executionsClient.getExecution(executionName);
            finished = execution.getState() != Execution.State.ACTIVE;
    
            // If we haven't seen the results yet, wait.
            if (!finished) {
              System.out.println("- Waiting for results");
              Thread.sleep(backoffDelay);
              backoffTime += backoffDelay;
              backoffDelay *= 2; // Double the delay to provide exponential backoff.
            } else {
              System.out.println("Execution finished with state: " + execution.getState().name());
              System.out.println("Execution results: " + execution.getResult());
            }
          }
        }
      }
    }

    Node.js (JavaScript)

    const {ExecutionsClient} = require('@google-cloud/workflows');
    const client = new ExecutionsClient();
    /**
     * TODO(developer): Uncomment these variables before running the sample.
     */
    // const projectId = 'my-project';
    // const location = 'us-central1';
    // const workflow = 'myFirstWorkflow';
    // const searchTerm = '';
    
    /**
     * Executes a Workflow and waits for the results with exponential backoff.
     * @param {string} projectId The Google Cloud Project containing the workflow
     * @param {string} location The workflow location
     * @param {string} workflow The workflow name
     * @param {string} searchTerm Optional search term to pass to the Workflow as a runtime argument
     */
    async function executeWorkflow(projectId, location, workflow, searchTerm) {
      /**
       * Sleeps the process N number of milliseconds.
       * @param {Number} ms The number of milliseconds to sleep.
       */
      function sleep(ms) {
        return new Promise(resolve => {
          setTimeout(resolve, ms);
        });
      }
      const runtimeArgs = searchTerm ? {searchTerm: searchTerm} : {};
      // Execute workflow
      try {
        const createExecutionRes = await client.createExecution({
          parent: client.workflowPath(projectId, location, workflow),
          execution: {
            // Runtime arguments can be passed as a JSON string
            argument: JSON.stringify(runtimeArgs),
          },
        });
        const executionName = createExecutionRes[0].name;
        console.log(`Created execution: ${executionName}`);
    
        // Wait for execution to finish, then print results.
        let executionFinished = false;
        let backoffDelay = 1000; // Start wait with delay of 1,000 ms
        console.log('Poll every second for result...');
        while (!executionFinished) {
          const [execution] = await client.getExecution({
            name: executionName,
          });
          executionFinished = execution.state !== 'ACTIVE';
    
          // If we haven't seen the result yet, wait a second.
          if (!executionFinished) {
            console.log('- Waiting for results...');
            await sleep(backoffDelay);
            backoffDelay *= 2; // Double the delay to provide exponential backoff.
          } else {
            console.log(`Execution finished with state: ${execution.state}`);
            console.log(execution.result);
            return execution.result;
          }
        }
      } catch (e) {
        console.error(`Error executing workflow: ${e}`);
      }
    }
    
    executeWorkflow(projectId, location, workflowName, searchTerm).catch(err => {
      console.error(err.message);
      process.exitCode = 1;
    });
    

    Node.js (TypeScript)

    import {ExecutionsClient} from '@google-cloud/workflows';
    const client: ExecutionsClient = new ExecutionsClient();
    /**
     * TODO(developer): Uncomment these variables before running the sample.
     */
    // const projectId = 'my-project';
    // const location = 'us-central1';
    // const workflow = 'myFirstWorkflow';
    // const searchTerm = '';
    
    /**
     * Executes a Workflow and waits for the results with exponential backoff.
     * @param {string} projectId The Google Cloud Project containing the workflow
     * @param {string} location The workflow location
     * @param {string} workflow The workflow name
     * @param {string} searchTerm Optional search term to pass to the Workflow as a runtime argument
     */
    async function executeWorkflow(
      projectId: string,
      location: string,
      workflow: string,
      searchTerm: string
    ) {
      /**
       * Sleeps the process N number of milliseconds.
       * @param {Number} ms The number of milliseconds to sleep.
       */
      function sleep(ms: number): Promise<unknown> {
        return new Promise(resolve => {
          setTimeout(resolve, ms);
        });
      }
      const runtimeArgs = searchTerm ? {searchTerm: searchTerm} : {};
      // Execute workflow
      try {
        const createExecutionRes = await client.createExecution({
          parent: client.workflowPath(projectId, location, workflow),
          execution: {
            // Runtime arguments can be passed as a JSON string
            argument: JSON.stringify(runtimeArgs),
          },
        });
        const executionName = createExecutionRes[0].name;
        console.log(`Created execution: ${executionName}`);
    
        // Wait for execution to finish, then print results.
        let executionFinished = false;
        let backoffDelay = 1000; // Start wait with delay of 1,000 ms
        console.log('Poll every second for result...');
        while (!executionFinished) {
          const [execution] = await client.getExecution({
            name: executionName,
          });
          executionFinished = execution.state !== 'ACTIVE';
    
          // If we haven't seen the result yet, wait a second.
          if (!executionFinished) {
            console.log('- Waiting for results...');
            await sleep(backoffDelay);
            backoffDelay *= 2; // Double the delay to provide exponential backoff.
          } else {
            console.log(`Execution finished with state: ${execution.state}`);
            console.log(execution.result);
            return execution.result;
          }
        }
      } catch (e) {
        console.error(`Error executing workflow: ${e}`);
      }
    }
    
    executeWorkflow(projectId, location, workflowName, searchTerm).catch(
      (err: Error) => {
        console.error(err.message);
        process.exitCode = 1;
      }
    );

    Python

    import time
    
    from google.cloud import workflows_v1
    from google.cloud.workflows import executions_v1
    from google.cloud.workflows.executions_v1 import Execution
    from google.cloud.workflows.executions_v1.types import executions
    
    
    def execute_workflow(
        project: str, location: str = "us-central1", workflow: str = "myFirstWorkflow"
    ) -> Execution:
        """Execute a workflow and print the execution results.
    
        A workflow consists of a series of steps described using the Workflows syntax, and can be written in either YAML or JSON.
    
        Args:
            project: The Google Cloud project id which contains the workflow to execute.
            location: The location for the workflow
            workflow: The ID of the workflow to execute.
    
        Returns:
            The execution response.
        """
        # Set up API clients.
        execution_client = executions_v1.ExecutionsClient()
        workflows_client = workflows_v1.WorkflowsClient()
        # Construct the fully qualified location path.
        parent = workflows_client.workflow_path(project, location, workflow)
    
        # Execute the workflow.
        response = execution_client.create_execution(request={"parent": parent})
        print(f"Created execution: {response.name}")
    
        # Wait for execution to finish, then print results.
        execution_finished = False
        backoff_delay = 1  # Start wait with delay of 1 second
        print("Poll for result...")
        while not execution_finished:
            execution = execution_client.get_execution(request={"name": response.name})
            execution_finished = execution.state != executions.Execution.State.ACTIVE
    
            # If we haven't seen the result yet, wait a second.
            if not execution_finished:
                print("- Waiting for results...")
                time.sleep(backoff_delay)
                # Double the delay to provide exponential backoff.
                backoff_delay *= 2
            else:
                print(f"Execution finished with state: {execution.state.name}")
                print(f"Execution results: {execution.result}")
                return execution
    
    

    Im Beispiel wird Folgendes ausgeführt:

    1. Richtet die Cloud-Clientbibliotheken für Workflows ein.
    2. Führt einen Workflow aus.
    3. Fragt die Workflow-Ausführung (mit exponentiellem Backoff) ab, bis die Ausführung beendet.
    4. Druckt die Ausführungsergebnisse.
  5. Installieren Sie zuerst die Abhängigkeiten, um das Beispiel auszuführen:

    Java

    mvn compile

    Node.js (JavaScript)

    npm install

    Node.js (TypeScript)

    npm install && npm run build

    Python

    pip3 install -r requirements.txt

  6. Führen Sie das Skript aus:

    Java

    GOOGLE_CLOUD_PROJECT=PROJECT_ID LOCATION=CLOUD_REGION WORKFLOW=WORKFLOW_NAME mvn compile exec:java -Dexec.mainClass=com.example.workflows.WorkflowsQuickstart

    Node.js (JavaScript)

    npm start PROJECT_ID CLOUD_REGION WORKFLOW_NAME

    Node.js (TypeScript)

    npm start PROJECT_ID CLOUD_REGION WORKFLOW_NAME

    Python

    GOOGLE_CLOUD_PROJECT=PROJECT_ID LOCATION=CLOUD_REGION WORKFLOW=WORKFLOW_NAME python3 main.py

    Ersetzen Sie Folgendes:

    • PROJECT_ID (erforderlich): die Projekt-ID des Google Cloud-Projekt
    • CLOUD_REGION: Der Speicherort für den Workflow (Standardeinstellung: us-central1)
    • WORKFLOW_NAME: Die ID des Workflows (Standard: myFirstWorkflow)

    Die Ausgabe sieht in etwa so aus:

    Execution finished with state: SUCCEEDED
    ["Sunday","Sunday in the Park with George","Sunday shopping","Sunday Bloody Sunday","Sunday Times Golden Globe Race","Sunday All Stars","Sunday Night (South Korean TV series)","Sunday Silence","Sunday Without God","Sunday Independent (Ireland)"]
    

REST API

Um eine neue Ausführung mit der neuesten Version eines bestimmten Workflows zu erstellen, verwenden Sie die projects.locations.workflows.executions.create .

Für die Authentifizierung benötigen Sie ein Dienstkonto mit ausreichend zum Ausführen des Workflows. Sie können beispielsweise einem Dienstkonto die Rolle Workflows-Aufrufer (roles/workflows.invoker) zuweisen, damit das Konto die Berechtigung zum Auslösen der Workflowausführung hat. Weitere Informationen finden Sie unter Rufen Sie Workflows auf.

Ersetzen Sie diese Werte in den folgenden Anfragedaten:

  • PROJECT_NUMBER: Ihr Google Cloud-Team Projektnummer, die in den IAM- und Verwaltung Einstellungen.
  • LOCATION: die Region, in der der Workflow bereitgestellt wird, z. B. us-central1.
  • WORKFLOW_NAME: der benutzerdefinierte Name für den Workflow, z. B. myFirstWorkflow.
  • PARAMETER: Optional. Wenn der Workflow die Sie ausführen, Laufzeitargumente empfangen können, die Sie als Teil einer Ausführungsanfrage übergeben. können Sie in den Anfragetext einen String im JSON-Format einfügen, dessen Wert ein oder mehrere maskierte Parameter/Wert-Paare, z. B. "{\"searchTerm\":\"asia\"}".
  • VALUE: Optional. Der Wert eines Parameter/Wert-Paar, das Ihr Workflow als Laufzeitargument empfangen kann.
  • CALL_LOGGING_LEVEL: Optional. Die Ebene des Aufruf-Loggings, die während der Ausführung angewendet werden soll. Standardmäßig ist keine Logging-Ebene angegeben und stattdessen wird die Workflow-Logebene angewendet. Weitere Informationen finden Sie unter Logs an Logging senden Eine der Folgendes:
    • CALL_LOG_LEVEL_UNSPECIFIED: Es wird keine Logging-Ebene angegeben und stattdessen wird die Workflow-Logebene angewendet. Das ist die Standardeinstellung. Andernfalls gilt die Ausführungslogebene und hat Vorrang vor der Workflow-Logebene.
    • LOG_ERRORS_ONLY: alle erfassten Ausnahmen protokollieren; oder wenn ein Anruf aufgrund einer Ausnahme beendet.
    • LOG_ALL_CALLS: Alle Aufrufe von untergeordneten Workflows oder Bibliotheksfunktionen und deren Ergebnisse werden protokolliert.
    • LOG_NONE: Kein Aufruf-Logging.
  • BACKLOG_EXECUTION: Optional. Wenn true festgelegt ist, wird die Ausführung nicht zurückgestellt, wenn das Kontingent für die Parallelität aufgebraucht ist. Weitere Informationen finden Sie unter Ausführungsbacklogging verwalten

JSON-Text der Anfrage:

{
  "argument": "{\"PARAMETER\":\"VALUE\"}",
  "callLogLevel": "CALL_LOGGING_LEVEL",
  "disableConcurrencyQuotaOverflowBuffering": "BACKLOG_EXECUTION"
}

Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:

Bei Erfolg enthält der Antworttext eine neu erstellte Instanz von Execution:

{
  "name": "projects/PROJECT_NUMBER/locations/LOCATION/workflows/WORKFLOW_NAME/executions/EXECUTION_ID",
  "startTime": "2023-11-07T14:35:27.215337069Z",
  "state": "ACTIVE",
  "argument": "{\"PARAMETER\":\"VALUE\"}",
  "workflowRevisionId": "000001-2df",
  "callLogLevel": "CALL_LOGGING_LEVEL",
  "status": {}
}

Status von Ausführungen prüfen

Es gibt mehrere Befehle, mit denen Sie den Status einer Workflowausführung prüfen können.

  • Geben Sie den folgenden Befehl ein, um eine Liste der Ausführungsversuche eines Workflows und ihrer IDs abzurufen:

    gcloud workflows executions list WORKFLOW_NAME

    Ersetzen Sie WORKFLOW_NAME durch den Namen des Workflows.

    Der Befehl gibt einen NAME-Wert zurück, der in etwa so aussieht:

    projects/PROJECT_NUMBER/locations/REGION/workflows/WORKFLOW_NAME/executions/EXECUTION_ID

    Kopieren Sie die Ausführungs-ID, die im nächsten Befehl verwendet werden soll.

  • Geben Sie den folgenden Befehl ein, um den Status eines Ausführungsversuchs zu prüfen und auf den Abschluss des Versuchs zu warten:

    gcloud workflows executions wait EXECUTION_ID

    Ersetzen Sie EXECUTION_ID durch die ID des Ausführungsversuchs.

    Der Befehl wartet, bis der Ausführungsversuch abgeschlossen ist, und gibt dann die Ergebnisse zurück.

  • Um zu warten, bis die letzte Ausführung abgeschlossen ist, und dann das Ergebnis Ausführung abgeschlossen haben, geben Sie den folgenden Befehl ein:

    gcloud workflows executions wait-last

    Wenn Sie in derselben gcloud-Sitzung einen vorherigen Ausführungsversuch ausgeführt haben, wartet der Befehl auf den Abschluss des vorherigen Ausführungsversuchs und gibt dann die Ergebnisse der abgeschlossenen Ausführung zurück. Wenn kein vorheriger Versuch vorhanden ist, gcloud gibt den folgenden Fehler zurück:

    ERROR: (gcloud.workflows.executions.wait-last) [NOT FOUND] There are no cached executions available.
    
  • Geben Sie den folgenden Befehl ein, um den Status der letzten Ausführung abzurufen:

    gcloud workflows executions describe-last

    Falls Sie in derselben gcloud-Sitzung bereits einen Ausführungsversuch unternommen haben, -Befehl gibt die Ergebnisse der letzten Ausführung zurück, auch wenn diese noch ausgeführt wird. Wenn kein vorheriger Versuch vorhanden ist, gibt gcloud den folgenden Fehler zurück:

    ERROR: (gcloud.beta.workflows.executions.describe-last) [NOT FOUND] There are no cached executions available.
    

Filterausführungen

Sie können die Liste der Workflowausführungen, die von der Methode workflows.executions.list zurückgegeben wird, filtern.

Sie können nach den folgenden Feldern filtern:

  • createTime
  • disableOverflowBuffering
  • duration
  • endTime
  • executionId
  • label
  • startTime
  • state
  • stepName
  • workflowRevisionId

Wenn Sie beispielsweise nach einem Label (labels."fruit":"apple") filtern möchten, können Sie eine API-Anfrage wie die folgende stellen:

GET https://workflowexecutions.googleapis.com/v1/projects/MY_PROJECT/locations/MY_LOCATION/workflows/MY_WORKFLOW/executions?view=full&filter=labels.%22fruit%22%3A%22apple%22"

Wobei:

  • view=full gibt eine Ansicht an, mit der definiert wird, welche Felder in der Ausführungen zurückgegeben; in diesem Fall alle Daten
  • labels.%22fruit%22%3A%22apple%22 ist die URL-codierte Filtersyntax.

Weitere Informationen finden Sie unter AIP-160 – Filtern.

Ausführungsrückprotokoll verwalten

Mit der Ausführungsauslagerung können Sie clientseitige Wiederholungsversuche vermeiden, Ausführungsverzögerungen beseitigen und den Durchsatz maximieren. Zurückgestellte Ausführungen werden automatisch ausgeführt sobald ein Kontingent für die Nebenläufigkeit von Ausführungen verfügbar ist.

Es gibt eine maximale Anzahl aktiver Workflows Ausführungen, die gleichzeitig ausgeführt werden können. Wenn dieses Kontingent aufgebraucht ist und die Ausführungsaussetzung deaktiviert ist oder das Kontingent für ausstehende Ausführungen erreicht ist, schlagen alle neuen Ausführungen mit dem HTTP-Statuscode 429 Too many requests fehl. Wenn die Ausführungsaussetzung aktiviert ist, werden die neuen Ausführungen erfolgreich ausgeführt und mit dem Status QUEUED erstellt. Sobald das Kontingent für die Ausführungsparallelität verfügbar ist, werden die Ausführungen automatisch ausgeführt und erhalten den Status ACTIVE.

Standardmäßig ist das Ausführungsrückprotokoll für alle Anfragen aktiviert (einschließlich derjenigen von Cloud Tasks ausgelöst) mit den folgenden Ausnahmen:

  • Wenn Sie eine Ausführung mit einem executions.run- oder executions.create-Connector in einem Workflow erstellen, ist das Backlogging der Ausführung standardmäßig deaktiviert. Sie können sie konfigurieren, indem Sie das Feld disableConcurrencyQuotaOverflowBuffering der Ausführung explizit auf false setzen.
  • Bei Ausführungen, die durch Pub/Sub ausgelöst werden, ist das Backlogging deaktiviert und kann nicht konfiguriert werden.

Wichtige Hinweise:

  • Ausgeführte Aufgaben werden nach dem FIFO-Prinzip (First In, First Out) gestartet.
  • Ein createTime-Zeitstempelfeld gibt an, wann eine Ausführung erstellt wurde. Die Der Zeitstempel startTime gibt an, wann eine Ausführung automatisch aus und beginnt mit der Ausführung. Bei Ausführungen, die nicht zurückgestellt wurden, sind beide Zeitstempelwerte identisch.
  • Das Limit für zurückgestellte Ausführungen kann mithilfe des Kontingentmesswert von workflowexecutions.googleapis.com/executionbacklogentries. Für Weitere Informationen finden Sie unter Kontingente ansehen und verwalten.

Ausführungsrückprotokoll deaktivieren

Sie können das Ausführungsrückprotokoll deaktivieren, indem Sie ein -Flag setzen, wenn Sie die Methode über die Google Cloud CLI. Beispiel:

gcloud workflows execute WORKFLOW_NAME
    --disable-concurrency-quota-overflow-buffering

Sie können die Ausführungsaussetzung auch deaktivieren, indem Sie das Feld disableConcurrencyQuotaOverflowBuffering im JSON-Anfragetext auf true setzen, wenn Sie eine Ausführungsanfrage an die Workflows REST API senden. Beispiel:

{
  "argument": {"arg1":"value1"},
  "callLogLevel": "LOG_NONE",
  "disableConcurrencyQuotaOverflowBuffering": true
}

Weitere Informationen finden Sie unter Workflow ausführen.

Nächste Schritte