Mit Sammlungen den Überblick behalten Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Kurzanleitung: Shell-Job in Cloud Run einbinden und erstellen

Shell-Job in Cloud Run einbinden und erstellen

Erfahren Sie, wie Sie einen einfachen Cloud Run-Job erstellen, in ein Container-Image verpacken, das Container-Image in Container Registry hochladen und dann in Cloud Run bereitstellen. Sie können zusätzlich zu den angezeigten Sprachen auch andere Sprachen verwenden.

Vorbereitung

  1. Melden Sie sich bei Ihrem Google Cloud-Konto an. Wenn Sie mit Google Cloud noch nicht vertraut sind, erstellen Sie ein Konto, um die Leistungsfähigkeit unserer Produkte in der Praxis sehen und bewerten zu können. Neukunden erhalten außerdem ein Guthaben von 300 $, um Arbeitslasten auszuführen, zu testen und bereitzustellen.
  2. Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.

    Zur Projektauswahl

  3. Die Abrechnung für das Cloud-Projekt muss aktiviert sein. So prüfen Sie, ob die Abrechnung für ein Projekt aktiviert ist.

  4. Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.

    Zur Projektauswahl

  5. Die Abrechnung für das Cloud-Projekt muss aktiviert sein. So prüfen Sie, ob die Abrechnung für ein Projekt aktiviert ist.

Beispieljob schreiben

So schreiben Sie einen Cloud Run-Job, der ein Shell-Skript ausführt:

  1. Erstellen Sie ein neues Verzeichnis mit dem Namen jobs und ersetzen Sie das aktuelle Verzeichnis durch dieses Verzeichnis:

    mkdir jobs
    cd jobs
    
  2. Erstellen Sie eine Dockerfile-Datei mit folgendem Inhalt:

    
    # Use the official Ubuntu image from Docker Hub as
    # a base image
    FROM ubuntu:22.04
    
    # Execute next commands in the directory /workspace
    WORKDIR /workspace
    
    # Copy over the script to the /workspace directory
    COPY script.sh .
    
    # Just in case the script doesn't have the executable bit set
    RUN chmod +x ./script.sh
    
    # Run the script when starting the container
    CMD [ "./script.sh" ]
    
  3. Erstellen Sie im selben Verzeichnis eine script.sh-Datei für den tatsächlichen Jobcode. Kopieren Sie die folgenden Beispielzeilen in diese Datei:

    #!/bin/bash
    set -euo pipefail
    
    # In production, consider printing commands as they are executed.
    # This helps with debugging if things go wrong and you only
    # have the logs.
    #
    # Add -x:
    # `set -euox pipefail`
    
    CLOUD_RUN_TASK_INDEX=${CLOUD_RUN_TASK_INDEX:=0}
    CLOUD_RUN_TASK_ATTEMPT=${CLOUD_RUN_TASK_ATTEMPT:=0}
    
    echo "Starting Task #${CLOUD_RUN_TASK_INDEX}, Attempt #${CLOUD_RUN_TASK_ATTEMPT}..."
    
    # SLEEP_MS and FAIL_RATE should be a decimal
    # numbers. parse and format the input using
    # printf.
    #
    # printf validates the input since it
    # quits on invalid input, as shown here:
    #
    #   $: printf '%.1f' "abc"
    #   bash: printf: abc: invalid number
    #
    SLEEP_MS=$(printf '%.1f' "${SLEEP_MS:=0}")
    FAIL_RATE=$(printf '%.1f' "${FAIL_RATE:=0}")
    
    # Wait for a specific amount of time to simulate
    # performing some work
    SLEEP_SEC=$(echo print\("${SLEEP_MS}"/1000\) | perl)
    sleep "$SLEEP_SEC" # sleep accepts seconds, not milliseconds
    
    # Fail the task with a likelihood of $FAIL_RATE
    
    # Bash does not do floating point arithmetic. Use perl
    # to convert into integer and multiply by 100.
    FAIL_RATE_INT=$(echo print\("int(${FAIL_RATE:=0}*100"\)\) | perl)
    
    # Generate a random number between 0 and 100
    RAND=$(( RANDOM % 100))
    if (( RAND < FAIL_RATE_INT )); then
        echo "Task #${CLOUD_RUN_TASK_INDEX}, Attempt #${CLOUD_RUN_TASK_ATTEMPT} failed."
        exit 1
    else
        echo "Completed Task #${CLOUD_RUN_TASK_INDEX}."
    fi
    

    Cloud Run-Jobs ermöglichen es Nutzern, die Anzahl der Aufgaben anzugeben, die der Job ausführen soll. In diesem Beispielcode wird gezeigt, wie Sie die integrierte Umgebungsvariable CLOUD_RUN_TASK_INDEX verwenden. Jede Aufgabe stellt eine laufende Kopie des Containers dar. Aufgaben werden normalerweise parallel ausgeführt. Die Verwendung mehrerer Aufgaben ist nützlich, wenn jede Aufgabe eine Teilmenge Ihrer Daten unabhängig verarbeiten kann.

    Jede Aufgabe kennt ihren Index, der in der Umgebungsvariable CLOUD_RUN_TASK_INDEX gespeichert ist. Die integrierte Umgebungsvariable CLOUD_RUN_TASK_COUNT enthält die Anzahl der Aufgaben, die zum Zeitpunkt der Jobausführung über den Parameter --tasks bereitgestellt werden.

    Der dargestellte Code zeigt auch, wie Aufgaben mit der integrierten Umgebungsvariable CLOUD_RUN_TASK_ATTEMPT wiederholt werden. Die Umgebungsvariable gibt an, wie oft diese Aufgabe wiederholt wurde, beginnend bei 0 für den ersten Versuch und erhöht sich um 1 für jeden nachfolgenden Versuch, bis --max-retries.

    Außerdem können Sie Fehler generieren, um Wiederholungsversuche zu testen und Fehlerlogs zu generieren, um deren Aussehen zu verstehen.

Ihr Code ist vollständig und kann in einen Container gepackt werden.

Code in ein Container-Image einbinden und in eine Registry verschieben

Wichtig: In dieser Kurzanleitung wird davon ausgegangen, dass Sie Inhaber- oder Bearbeiterrollen in dem Projekt haben, das Sie für die Kurzanleitung verwenden. Andernfalls finden Sie die Berechtigungen unter Cloud Run-Bereitstellungsberechtigungen, Cloud Build-Berechtigungen und Artifact Registry-Berechtigungen.

Build mit Dockerfile erstellen:

 gcloud builds submit -t "gcr.io/PROJECT_ID/logger-job"

Job in Cloud Run erstellen

So erstellen Sie einen Job mit dem soeben erstellten Container:

gcloud beta run jobs create job-quickstart \
    --image gcr.io/PROJECT_ID/logger-job \
    --tasks 50 \
    --set-env-vars SLEEP_MS=10000 \
    --set-env-vars FAIL_RATE=0.5 \
    --max-retries 5 \
    --region REGION

Dabei ist PROJECT_ID Ihre Projekt-ID und REGION Ihre Region, z. B. us-central1. Beachten Sie, dass Sie die verschiedenen Parameter auf die Werte ändern können, die Sie zu Testzwecken verwenden möchten. SLEEP_MS simuliert die Arbeit und FAIL_RATE führt dazu, dass X% der Aufgaben fehlschlagen, sodass Sie mit Parallelität experimentieren und fehlgeschlagene Aufgaben wiederholen können.

Job in Cloud Run ausführen

So führen Sie den gerade erstellten Job aus:

gcloud beta run jobs execute job-quickstart

Wenn Sie zur Eingabe der Region aufgefordert werden, wählen Sie die Region Ihrer Wahl aus, zum Beispiel us-central1.

Lokal testen

Sie können den Job lokal ausführen:

docker run --rm -e FAIL_RATE=0.9 -e SLEEP_MS=1000 gcr.io/PROJECT_ID/logger-job
Dabei ist PROJECT_ID Ihre Projekt-ID.

Nächste Schritte

Weitere Informationen dazu, wie Sie einen Container aus Quellcode erstellen und diesen mithilfe eines Push-Vorgangs in ein Repository übertragen, finden Sie unter: