In dieser Anleitung erfahren Sie, wie Sie die GPU-Bereitstellung für Trainingsarbeitslasten mittleren und kleinen Umfangs mithilfe des Flex-Start-Bereitstellungsmodus optimieren. In dieser Anleitung verwenden Sie Flex-Start, um eine Arbeitslast bereitzustellen, die aus zwei Kubernetes-Jobs besteht. Für jeden Job ist eine GPU erforderlich. GKE stellt automatisch einen einzelnen Knoten mit zwei A100-GPUs für die Ausführung beider Jobs bereit.
Wenn für Ihre Arbeitslast die verteilte Verarbeitung auf mehreren Knoten erforderlich ist, sollten Sie Flex-Start mit Provisionierung in der Warteschlange verwenden. Weitere Informationen finden Sie unter Große Arbeitslast mit Flex-Start und Warteschlangenbereitstellung ausführen.
Dieser Leitfaden richtet sich an Entwickler von maschinellem Lernen (ML), Plattformadministratoren und ‑operatoren sowie an Daten- und KI-Spezialisten, die daran interessiert sind, Kubernetes-Container-Orchestrierungsfunktionen zum Ausführen von Batcharbeitslasten zu nutzen. Weitere Informationen zu gängigen Rollen und Beispielaufgaben, auf die wir in Google Cloud -Inhalten verweisen, finden Sie unter Häufig verwendete GKE-Nutzerrollen und -Aufgaben.
Flex-Start-Preise
Flex-Start wird empfohlen, wenn für Ihre Arbeitslast dynamisch bereitgestellte Ressourcen nach Bedarf für bis zu sieben Tage mit kurzfristigen Reservierungen, ohne komplexes Kontingentmanagement und kostengünstigen Zugriff erforderlich sind. Flex-Start basiert auf dem Dynamic Workload Scheduler und wird gemäß der Preisgestaltung für den Dynamic Workload Scheduler abgerechnet:
- Rabattiert (bis zu 53%) für vCPUs, GPUs und TPUs.
- Sie zahlen nur für die tatsächliche Nutzung.
Hinweise
Führen Sie die folgenden Aufgaben aus, bevor Sie beginnen:
- Aktivieren Sie die Google Kubernetes Engine API. Google Kubernetes Engine API aktivieren
- Wenn Sie die Google Cloud CLI für diese Aufgabe verwenden möchten, müssen Sie die gcloud CLI installieren und dann initialisieren. Wenn Sie die gcloud CLI bereits installiert haben, rufen Sie die neueste Version mit
gcloud components update
ab.
- Prüfen Sie, ob Sie einen Autopilot-Cluster oder einen Standardcluster mit Version 1.33.0-gke.1712000 oder höher haben.
- Machen Sie sich mit den Einschränkungen von Flex-Start vertraut.
- Wenn Sie einen Standardcluster verwenden, muss mindestens ein Knotenpool ohne aktivierte Flex-Start-Funktion vorhanden sein, damit der Cluster ordnungsgemäß funktioniert.
- Prüfen Sie, ob Sie in Ihren Knotenstandorten ein Kontingent für unterbrechbare GPUs haben.
Wenn Sie keinen Cluster haben oder Ihr Cluster die Anforderungen nicht erfüllt, können Sie mit der gcloud CLI einen regionalen Standardcluster erstellen. Fügen Sie die folgenden Flags hinzu, um mehr über den flexiblen Start zu erfahren:
--location=us-central1 \
--node-locations=us-central1-a,us-central1-b \
--machine-type=g2-standard-8
Wenn Sie einen Knotenpool mit flexiblem Start erstellen, verwenden Sie die oben genannten Flags und --accelerator type=nvidia-l4,count=1
.
Wenn Sie einen Standardcluster haben, der die Anforderungen erfüllt, erfahren Sie in den nächsten Abschnitten, wie Sie einen GPU-Beschleunigertyp und einen Maschinentyp für Ihren Cluster auswählen.
GPU-Beschleunigertyp auswählen
Wenn Sie einen Cluster im Autopilot-Modus verwenden, überspringen Sie diesen Abschnitt und fahren Sie mit dem Abschnitt Batcharbeitslast ausführen fort.
Die GPU-Verfügbarkeit ist für jede Zone spezifisch. Sie müssen einen GPU-Beschleunigertyp finden, der in einer Zone verfügbar ist, in der sich der Standardcluster befindet. Wenn Sie einen regionalen Standardcluster haben, muss sich die Zone, in der der GPU-Beschleunigertyp verfügbar ist, in der Region befinden, in der sich der Cluster befindet. Wenn Sie den Knotenpool erstellen, geben Sie den Beschleunigertyp und die Zonen für die Knoten an. Wenn Sie einen Beschleunigertyp angeben, der am Standort des Clusters nicht verfügbar ist, schlägt die Knotenerstellung fehl.
Führen Sie die folgenden Befehle aus, um den Standort Ihres Clusters und einen unterstützten GPU-Beschleunigertyp abzurufen.
Rufen Sie den Standort des Clusters ab:
gcloud container clusters list
Die Ausgabe sieht etwa so aus:
NAME LOCATION MASTER_VERSION MASTER_IP MACHINE_TYPE NODE_VERSION NUM_NODES STATUS STACK_TYPE example-cluster-1 us-west2 1.33.2-gke.1111000 34.102.3.122 e2-medium 1.33.2-gke.1111000 9 RUNNING IPV4
So listen Sie die verfügbaren GPU-Beschleunigertypen am Standort auf, ohne Virtual Workstations:
gcloud compute accelerator-types list | grep LOCATION_NAME | grep -v "Workstation"
Ersetzen Sie
LOCATION_NAME
durch den Standort des Clusters.Wenn Sie beispielsweise eine Liste der GPU-Beschleunigertypen in der Region
us-west2
abrufen möchten, führen Sie den folgenden Befehl aus:gcloud compute accelerator-types list | grep us-west2 | grep -v "Workstation"
Die Ausgabe sieht etwa so aus:
nvidia-b200 us-west2-c NVIDIA B200 180GB nvidia-tesla-p4 us-west2-c NVIDIA Tesla P4 nvidia-tesla-t4 us-west2-c NVIDIA T4 nvidia-tesla-p4 us-west2-b NVIDIA Tesla P4 nvidia-tesla-t4 us-west2-b NVIDIA T4
Kompatiblen Maschinentyp auswählen
Wenn Sie einen Cluster im Autopilot-Modus verwenden, überspringen Sie diesen Abschnitt und fahren Sie mit dem Abschnitt Batcharbeitslast ausführen fort.
Nachdem Sie wissen, welche GPUs am Standort des Clusters verfügbar sind, können Sie die kompatiblen Maschinentypen ermitteln. Google Cloud beschränkt GPUs auf bestimmte Maschinenserien. So finden Sie einen Maschinentyp:
- Weitere Informationen finden Sie in der Tabelle der verfügbaren GPU-Modelle.
- Suchen Sie die Zeile für den von Ihnen ausgewählten GPU-Beschleunigertyp.
- Sehen Sie sich die Spalte „Maschinenserie“ für diese Zeile an. In dieser Spalte sehen Sie, welche Maschinenreihe Sie verwenden müssen.
- Wenn Sie die Namen der Maschinentypen sehen möchten, die Sie angeben können, klicken Sie auf den Link in der Maschinenserie.
Die einzige Ausnahme ist die N1-Maschinenserie, in der Sie zusätzliche Informationen dazu finden, welche N1-Maschinentypen Sie mit dem ausgewählten Beschleunigertyp verwenden können.
Bevor Sie eine beschleunigungsoptimierte Maschine verwenden, prüfen Sie, ob sie den Bereitstellungsmodus mit flexiblem Start unterstützt. Informationen dazu finden Sie unter Verfügbarkeit von Verbrauchsoptionen nach Maschinentyp.
Anzahl der Beschleuniger ermitteln
Wenn Sie einen Cluster im Autopilot-Modus verwenden, überspringen Sie diesen Abschnitt und fahren Sie mit dem Abschnitt Batcharbeitslast ausführen fort.
Wenn Sie einen Knotenpool erstellen, müssen Sie die Anzahl der Beschleuniger festlegen, die an jeden Knoten im Knotenpool angehängt werden sollen. Gültige Werte hängen vom Beschleunigertyp und Maschinentyp ab. Für jeden Maschinentyp gilt ein Limit für die Anzahl der unterstützten GPUs. So ermitteln Sie, welchen Wert Sie verwenden sollten (außer dem Standardwert 1
):
- Weitere Informationen finden Sie unter GPUMaschinentypen.
- Suchen Sie in der Tabelle nach dem Beschleunigertyp für Ihren Maschinenserientyp.
- Verwenden Sie den Wert in der Spalte „GPU count“ (Anzahl der GPUs).
Knotenpool mit Flex-Start erstellen
Wenn Sie einen Cluster im Autopilot-Modus verwenden, überspringen Sie diesen Abschnitt und fahren Sie mit dem Abschnitt Batcharbeitslast ausführen fort.
Wenn Sie einen Knotenpool mit aktiviertem Flex-Start in einem vorhandenen Standardcluster erstellen möchten, können Sie die gcloud CLI oder Terraform verwenden.
gcloud
So erstellen Sie einen Knotenpool mit Flex-Start:
gcloud container node-pools create NODE_POOL_NAME \ --cluster CLUSTER_NAME \ --location LOCATION_NAME \ --project PROJECT_ID \ --accelerator type=ACCELERATOR_TYPE,count=COUNT \ --machine-type MACHINE_TYPE \ --max-run-duration MAX_RUN_DURATION \ --flex-start \ --node-locations NODE_ZONES \ --num-nodes 0 \ --enable-autoscaling \ --total-min-nodes 0 \ --total-max-nodes 5 \ --location-policy ANY \ --reservation-affinity none \ --no-enable-autorepair
Ersetzen Sie Folgendes:
NODE_POOL_NAME
: Der Name, den Sie für Ihren Knotenpool auswählen.CLUSTER_NAME
: Der Name des Standardclusters, den Sie ändern möchten.LOCATION_NAME
: die Compute-Region für die Clustersteuerungsebene.PROJECT_ID
: Ihre Projekt-ID.ACCELERATOR_TYPE
: Der spezifische Typ des Beschleunigers (z. B.nvidia-tesla-t4
für NVIDIA T4), der an die Instanzen angehängt werden soll.COUNT
: Die Anzahl der Beschleuniger, die an die Instanzen angehängt werden sollen. Der Standardwert ist1
.MACHINE_TYPE
: Der Maschinentyp für Knoten.MAX_RUN_DURATION
: Optional. Die maximale Laufzeit eines Knotens in Sekunden, bis zum Standardwert von sieben Tagen. Die eingegebene Nummer muss mits
enden. Wenn Sie beispielsweise einen Tag angeben möchten, geben Sie86400s
ein.NODE_ZONES
: Eine durch Kommas getrennte Liste mit einer oder mehreren Zonen, in denen GKE den Knotenpool erstellt.
In diesem Befehl weist das Flag
--flex-start
den Befehlgcloud
an, einen Knotenpool mit aktiviertem Flex-Start zu erstellen.GKE erstellt einen Knotenpool mit Knoten, die zwei Instanzen des angegebenen Beschleunigertyps enthalten. Der Knotenpool hat anfangs null Knoten und das Autoscaling ist aktiviert.
Prüfen Sie den Status von Flex-Start im Knotenpool:
gcloud container node-pools describe NODE_POOL_NAME \ --cluster CLUSTER_NAME \ --location LOCATION_NAME \ --format="get(config.flexStart)"
Wenn Flex-Start im Knotenpool aktiviert ist, wird das Feld
flexStart
aufTrue
festgelegt.
Terraform
Sie können Flex-Start mit GPUs über ein Terraform-Modul verwenden.
- Fügen Sie Ihrer Terraform-Konfiguration den folgenden Block hinzu:
resource "google_container_node_pool" " "gpu_dws_pool" {
name = "gpu-dws-pool"
queued_provisioning {
enabled = false
}
}
node_config {
machine_type = "MACHINE_TYPE"
accelerator_type = "ACCELERATOR_TYPE"
accelerator_count = COUNT
node_locations = ["NODE_ZONES"]
flex_start = true
}
Ersetzen Sie Folgendes:
MACHINE_TYPE
: Der Maschinentyp für Knoten.ACCELERATOR_TYPE
: Der spezifische Typ des Beschleunigers (z. B.nvidia-tesla-t4
für NVIDIA T4), der an die Instanzen angehängt werden soll.COUNT
: Die Anzahl der Beschleuniger, die an die Instanzen angehängt werden sollen. Der Standardwert ist1
.NODE_ZONES
: Die durch Kommas getrennte Liste mit einer oder mehreren Zonen, in denen GKE den Knotenpool erstellt.
Terraform ruft Google Cloud APIs auf, um einen Cluster mit einem Knotenpool zu erstellen, der Flex-Start mit GPUs verwendet. Der Knotenpool hat anfangs null Knoten und das Autoscaling ist aktiviert. Weitere Informationen zu Terraform finden Sie in der google_container_node_pool
-Ressourcenspezifikation auf terraform.io.
Batcharbeitslast ausführen
In diesem Abschnitt erstellen Sie zwei Kubernetes-Jobs, für die jeweils eine GPU erforderlich ist. Ein Jobcontroller in Kubernetes erstellt einen oder mehrere Pods und sorgt dafür, dass sie eine bestimmte Aufgabe erfolgreich ausführen.Starten Sie in der Google Cloud Console eine Cloud Shell-Sitzung, indem Sie auf
Cloud Shell aktivieren klicken. Im unteren Bereich der Google Cloud -Konsole wird eine Sitzung geöffnet.
Erstellen Sie eine Datei mit dem Namen
dws-flex-start.yaml
:apiVersion: batch/v1 kind: Job metadata: name: job-1 spec: template: spec: nodeSelector: cloud.google.com/gke-flex-start: "true" cloud.google.com/gke-accelerator: ACCELERATOR_TYPE containers: - name: container-1 image: gcr.io/k8s-staging-perf-tests/sleep:latest args: ["10s"] # Sleep for 10 seconds resources: requests: nvidia.com/gpu: 1 limits: nvidia.com/gpu: 1 restartPolicy: OnFailure --- apiVersion: batch/v1 kind: Job metadata: name: job-2 spec: template: spec: nodeSelector: cloud.google.com/gke-flex-start: "true" cloud.google.com/gke-accelerator: ACCELERATOR_TYPE containers: - name: container-2 image: gcr.io/k8s-staging-perf-tests/sleep:latest args: ["10s"] # Sleep for 10 seconds resources: requests: nvidia.com/gpu: 1 limits: nvidia.com/gpu: 1 restartPolicy: OnFailure
Wenden Sie das
dws-flex-start.yaml
-Manifest an:kubectl apply -f dws-flex-start.yaml
Prüfen Sie, ob die Jobs auf demselben Knoten ausgeführt werden:
kubectl get pods -l "job-name in (job-1,job-2)" -o wide
Die Ausgabe sieht etwa so aus:
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES job-1 0/1 Completed 0 19m 10.(...) gke-flex-zonal-a2 <none> <none> job-2 0/1 Completed 0 19m 10.(...) gke-flex-zonal-a2 <none> <none>
Bereinigen
Damit Ihrem Google Cloud -Konto die auf dieser Seite verwendeten Ressourcen nicht in Rechnung gestellt werden, können Sie entweder das Projekt löschen, das die Ressourcen enthält, oder das Projekt beibehalten und die einzelnen Ressourcen löschen.
Projekt löschen
- In the Google Cloud console, go to the Manage resources page.
- In the project list, select the project that you want to delete, and then click Delete.
- In the dialog, type the project ID, and then click Shut down to delete the project.
Einzelne Ressource löschen
Löschen Sie die Jobs:
kubectl delete job -l "job-name in (job-1,job-2)"
Löschen Sie den Knotenpool:
gcloud container node-pools delete NODE_POOL_NAME \ --location LOCATION_NAME
Löschen Sie den Cluster:
gcloud container clusters delete CLUSTER_NAME
Nächste Schritte
- GPUs in GKE
- Weitere Informationen zur automatischen Knotenbereitstellung
- Weitere Informationen zu Best Practices zum Ausführen von Batch-Arbeitslasten in GKE