Weitere Informationen zur Bulk-Erstellung finden Sie unter Informationen zur Bulk-Erstellung von VMs. Weitere Informationen zum Erstellen von VMs mit angehängten GPUs finden Sie unter Übersicht zum Erstellen einer Instanz mit angehängten GPUs.
Hinweise
- Informationen zu Einschränkungen und zusätzlichen erforderlichen Schritten zum Erstellen von Instanzen mit angehängten GPUs, z. B. zum Auswählen eines Betriebssystem-Images und zum Prüfen des GPU-Kontingents, finden Sie unter Übersicht zum Erstellen einer Instanz mit angehängten GPUs.
- Informationen zu Einschränkungen bei der Bulk-Erstellung finden Sie unter Informationen zur Bulk-Erstellung von VMs.
-
Richten Sie die Authentifizierung ein, falls Sie dies noch nicht getan haben.
Bei der Authentifizierung wird Ihre Identität für den Zugriff auf Google Cloud -Dienste und APIs überprüft. Zum Ausführen von Code oder Beispielen aus einer lokalen Entwicklungsumgebung können Sie sich so bei Compute Engine authentifizieren:
Select the tab for how you plan to use the samples on this page:
gcloud
-
Installieren Sie die Google Cloud CLI. Initialisieren Sie die Google Cloud CLI nach der Installation mit dem folgenden Befehl:
gcloud init
Wenn Sie einen externen Identitätsanbieter (IdP) verwenden, müssen Sie sich zuerst mit Ihrer föderierten Identität in der gcloud CLI anmelden.
- Set a default region and zone.
REST
Wenn Sie die REST API-Beispiele auf dieser Seite in einer lokalen Entwicklungsumgebung verwenden möchten, verwenden Sie die Anmeldedaten, die Sie der gcloud CLI bereitstellen.
Installieren Sie die Google Cloud CLI. Initialisieren Sie die Google Cloud CLI nach der Installation mit dem folgenden Befehl:
gcloud init
Wenn Sie einen externen Identitätsanbieter (IdP) verwenden, müssen Sie sich zuerst mit Ihrer föderierten Identität in der gcloud CLI anmelden.
Weitere Informationen finden Sie in der Dokumentation zur Google Cloud -Authentifizierung unter Für die Verwendung von REST authentifizieren.
Erforderliche Rollen
Um die Berechtigungen zu erhalten, die Sie zum Erstellen von VMs benötigen, bitten Sie Ihren Administrator, Ihnen die IAM-Rolle Compute-Instanzadministrator (Version 1) (
roles/compute.instanceAdmin.v1
) für das Projekt zu gewähren. Weitere Informationen zum Zuweisen von Rollen finden Sie unter Zugriff auf Projekte, Ordner und Organisationen verwalten.Diese vordefinierte Rolle enthält die Berechtigungen, die zum Erstellen von VMs erforderlich sind. Erweitern Sie den Abschnitt Erforderliche Berechtigungen, um die erforderlichen Berechtigungen anzuzeigen:
Erforderliche Berechtigungen
Die folgenden Berechtigungen sind zum Erstellen von VMs erforderlich:
compute.instances.create
für das Projekt-
So erstellen Sie die VM mit einem benutzerdefinierten Image:
compute.images.useReadOnly
für das Image -
Um die VM mit einem Snapshot zu erstellen:
compute.snapshots.useReadOnly
für den Snapshot -
So verwenden Sie eine Instanzvorlage zum Erstellen der VM:
compute.instanceTemplates.useReadOnly
für die Instanzvorlage -
So geben Sie ein Subnetz für Ihre VM an:
compute.subnetworks.use
für das Projekt oder für das ausgewählte Subnetz -
Um eine statische IP-Adresse für die VM festzulegen:
compute.addresses.use
für das Projekt -
So weisen Sie der VM eine externe IP-Adresse zu, wenn Sie ein VPC-Netzwerk verwenden:
compute.subnetworks.useExternalIp
für das Projekt oder für das ausgewählte Subnetz -
So weisen Sie der VM ein Legacy-Netzwerk zu:
compute.networks.use
für das Projekt -
So weisen Sie der VM eine externe IP-Adresse zu, wenn Sie ein Legacy-Netzwerk verwenden:
compute.networks.useExternalIp
für das Projekt -
Um Metadaten der VM-Instanz für die VM festzulegen:
compute.instances.setMetadata
für das Projekt -
Zum Festlegen von Tags für die VM:
compute.instances.setTags
auf der VM -
So legen Sie Labels für die VM fest:
compute.instances.setLabels
auf der VM -
So legen Sie ein Dienstkonto für die VM fest:
compute.instances.setServiceAccount
auf der VM -
Um ein neues Laufwerk für die VM zu erstellen:
compute.disks.create
für das Projekt -
So hängen Sie ein vorhandenes Laufwerk im Lese- oder Lese-/Schreibmodus an:
compute.disks.use
für das Laufwerk -
So hängen Sie ein vorhandenes Laufwerk im Lesemodus an:
compute.disks.useReadOnly
für das Laufwerk
Sie können diese Berechtigungen auch mit benutzerdefinierten Rollen oder anderen vordefinierten Rollen erhalten.
Übersicht
Wenn Sie VMs mit angehängten GPUs mithilfe der Bulk-Erstellungsmethode erstellen, können Sie VMs in einer Region (z. B.
us-central1
) oder in einer bestimmten Zone (z. B.us-central1-a
) erstellen.Wenn Sie eine Region angeben, platziert Compute Engine die VMs in einer beliebigen Zone innerhalb der Region, die GPUs unterstützt.
Maschinentypen
Die beschleunigungsoptimierte Maschinenfamilie umfasst mehrere Maschinentypen.
Jedem beschleunigungsoptimierten Maschinentyp ist ein bestimmtes NVIDIA-GPU-Modell angehängt, um den empfohlenen Arbeitslasttyp zu unterstützen.
KI- und ML-Arbeitslasten Grafiken und Visualisierung Beschleunigeroptimierte Maschinentypen der A-Serie sind für Arbeitslasten aus den Bereichen Hochleistungs-Computing (HPC), künstliche Intelligenz (KI) und maschinelles Lernen (ML) konzipiert. Bei diesen Maschinentypen wird das GPU-Modell automatisch an die Instanz angehängt.
Beschleunigungsoptimierte Maschinentypen der G-Serie sind für Arbeitslasten wie NVIDIA Omniverse-Simulationsarbeitslasten, grafikintensive Anwendungen, Videotranscodierung und virtuelle Desktops konzipiert. Diese Maschinentypen unterstützen NVIDIA RTX Virtual Workstations (vWS). Bei diesen Maschinentypen wird das GPU-Modell automatisch an die Instanz angehängt.
- A4X
(NVIDIA GB200-Superchips)
(nvidia-gb200
) - A4
(NVIDIA B200)
(nvidia-b200
) - A3 Ultra
(NVIDIA H200)
(nvidia-h200-141gb
) - A3 Mega
(NVIDIA H100)
(nvidia-h100-mega-80gb
) - A3 High
(NVIDIA H100)
(nvidia-h100-80gb
) - A3 Edge
(NVIDIA H100)
(nvidia-h100-80gb
) - A2 Ultra
(NVIDIA A100 80 GB)
(nvidia-a100-80gb
) - A2 Standard
(NVIDIA A100)
(nvidia-a100-40gb
)
Gruppen von A4X-, A4- und A3-Ultra-VMs erstellen
Informationen zum Erstellen von Instanzen im Bulk für die Maschinenserien A4X, A4 und A3 Ultra finden Sie in der AI Hypercomputer-Dokumentation unter Übersicht über Bereitstellungsoptionen.
Gruppen von A3-, A2-, G4- und G2-VMs erstellen
In diesem Abschnitt wird beschrieben, wie Sie Instanzen für die Maschinenserien A3 High, A3 Mega, A3 Edge, A2 Standard, A2 Ultra, G4 und G2 im Bulk mit der Google Cloud CLI oder REST erstellen.
gcloud
Verwenden Sie zum Erstellen einer Gruppe von VMs den Befehl
gcloud compute instances bulk create
. Weitere Informationen zu den Parametern und zur Verwendung dieses Befehls finden Sie unter VMs im Bulk erstellen.Beispiel
In diesem Beispiel werden zwei VMs mit angehängten GPUs mit den folgenden Spezifikationen erstellt:
- VM-Namen:
my-test-vm-1
,my-test-vm-2
- An jede VM sind zwei GPUs angehängt, für die der entsprechende beschleunigungsoptimierte Maschinentyps angegeben wird.
gcloud compute instances bulk create \ --name-pattern="my-test-vm-#" \ --region=REGION \ --count=2 \ --machine-type=MACHINE_TYPE \ --boot-disk-size=200 \ --image=IMAGE \ --image-project=IMAGE_PROJECT \ --on-host-maintenance=TERMINATE
Dabei gilt:
REGION
: Die Region für die VMs. Diese Region muss den ausgewählten beschleunigungsoptimierten Maschinentyp unterstützen.MACHINE_TYPE
: Der ausgewählte Maschinentyp Wählen Sie eine der folgenden Optionen aus:- Ein A3 High-Maschinentyp
- Ein A3 Mega-Maschinentyp
- Ein A3 Edge-Maschinentyp
- Ein A2-Standardmaschinentyp
- Ein A2 Ultra-Maschinentyp
- Ein G4-Maschinentyp
- Ein G2-Maschinentyp
G2-Maschinentypen unterstützen auch benutzerdefinierten Arbeitsspeicher. Der Arbeitsspeicher muss ein Vielfaches von 1.024 MB sein und innerhalb des unterstützten Arbeitsspeicherbereichs liegen. Geben Sie beispielsweise
--machine-type=g2-custom-4-19456
an, um eine VM mit 4 vCPUs und 19 GB Arbeitsspeicher zu erstellen.
IMAGE
: Ein Betriebssystem-Image, das GPUs unterstützt.Wenn Sie das neueste Image in einer Image-Familie verwenden möchten, ersetzen Sie das Flag
--image
durch das Flag--image-family
und legen Sie dessen Wert auf eine Image-Familie fest, die GPUs unterstützt. Beispiel:--image-family=rocky-linux-8-optimized-gcp
.Sie können auch ein benutzerdefiniertes Image oder Deep Learning VM Images angeben.
IMAGE_PROJECT
: Das Compute Engine-Image-Projekt, zu dem das Betriebssystem-Image gehört. Wenn Sie ein benutzerdefiniertes Image oder Deep Learning VM Images verwenden, geben Sie das Projekt an, zu dem diese Images gehören.VWS_ACCELERATOR_COUNT
ist die Anzahl der benötigten virtuellen GPUs.
Falls erfolgreich sieht die Ausgabe etwa so aus:
NAME ZONE my-test-vm-1 us-central1-b my-test-vm-2 us-central1-b Bulk create request finished with status message: [VM instances created: 2, failed: 0.]
Optionale Flags
Wenn Sie Ihre Instanz weiter konfigurieren möchten, um die Anforderungen Ihrer Arbeitslast oder Ihres Betriebssystems zu erfüllen, fügen Sie beim Ausführen des
gcloud compute instances bulk create
-Befehls ein oder mehrere der folgenden Flags ein.Funktion Beschreibung Bereitstellungsmodell Legt das Bereitstellungsmodell für die Instanz fest. Geben Sie entweder SPOT
oderFLEX_START
an.FLEX_START
wird für G4-Instanzen nicht unterstützt. Wenn Sie kein Modell angeben, wird das Standardmodell verwendet. Weitere Informationen finden Sie unter Bereitstellungsmodelle für Compute Engine-Instanzen.--provisioning-model=PROVISIONING_MODEL
Virtuelle Workstation Gibt eine virtuelle NVIDIA RTX-Workstation (vWS) für Grafikarbeitslasten an. Diese Funktion wird nur für G4- und G2-Instanzen unterstützt. --accelerator=type=VWS_ACCELERATOR_TYPE,count=VWS_ACCELERATOR_COUNT
Ersetzen Sie Folgendes:
- Wählen Sie für
VWS_ACCELERATOR_TYPE
eine der folgenden Optionen aus:- Geben Sie für G4-Instanzen
nvidia-rtx-pro-6000-vws
an. - Geben Sie für G2-Instanzen
nvidia-l4-vws
an.
- Geben Sie für G4-Instanzen
- Geben Sie für
VWS_ACCELERATOR_COUNT
die Anzahl der benötigten virtuellen GPUs an.
Lokale SSD Hängt Ihrer Instanz eine oder mehrere lokale SSDs an. Lokale SSDs können als schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden. Die maximale Anzahl lokaler SSD-Laufwerke, die Sie pro VM-Instanz anhängen können, finden Sie unter Grenzwerte für lokale SSDs.--local-ssd=interface=nvme \ --local-ssd=interface=nvme \ --local-ssd=interface=nvme ...
Netzwerkschnittstelle Hängt mehrere Netzwerkschnittstellen an Ihre Instanz an. Für g4-standard-384
-Instanzen können Sie bis zu zwei Netzwerkschnittstellen anhängen. Mit diesem Flag können Sie eine Instanz mit zwei Netzwerkschnittstellen (2 × 200 Gbit/s) erstellen. Jede Netzwerkschnittstelle muss sich in einem eindeutigen VPC-Netzwerk befinden.--network-interface=network=VPC_NAME_1,subnet=SUBNET_NAME_1,nic-type=GVNIC \ --network-interface=network=VPC_NAME_2,subnet=SUBNET_NAME_2,nic-type=GVNIC
Duale Netzwerkschnittstellen werden nur auf
g4-standard-384
-Maschinentypen unterstützt.Ersetzen Sie Folgendes:
VPC_NAME
: der Name Ihres VPC-Netzwerks.SUBNET_NAME
: der Name des Subnetzes, das Teil des angegebenen VPC-Netzwerk ist.
REST
Verwenden Sie die Methode
instances.bulkInsert
mit den erforderlichen Parametern, um mehrere VMs in einer Zone zu erstellen. Weitere Informationen zu den Parametern und zur Verwendung dieses Befehls finden Sie unter VMs im Bulk erstellen.Beispiel
In diesem Beispiel werden zwei VMs mit angehängten GPUs mit den folgenden Spezifikationen erstellt:
- VM-Namen:
my-test-vm-1
,my-test-vm-2
An jede VM sind zwei GPUs angehängt, für die der entsprechende beschleunigungsoptimierte Maschinentyps angegeben wird.
POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/REGION/instances/bulkInsert { "namePattern":"my-test-vm-#", "count":"2", "instanceProperties": { "machineType":MACHINE_TYPE, "disks":[ { "type":"PERSISTENT", "initializeParams":{ "diskSizeGb":"200", "sourceImage":SOURCE_IMAGE_URI }, "boot":true } ], "name": "default", "networkInterfaces": [ { "network": "projects/PROJECT_ID/global/networks/default" } ], "scheduling":{ "onHostMaintenance":"TERMINATE", ["automaticRestart":true] } } }
Dabei gilt:
PROJECT_ID
: Ihre Projekt-ID.REGION
: Die Region für die VMs. Diese Region muss das ausgewählte GPU-Modell unterstützen.MACHINE_TYPE
: Der ausgewählte Maschinentyp Wählen Sie eine der folgenden Optionen aus:- Ein A3 High-Maschinentyp
- Ein A3 Mega-Maschinentyp
- Ein A3 Edge-Maschinentyp
- Ein A2-Standardmaschinentyp
- Ein A2 Ultra-Maschinentyp
- Ein G4-Maschinentyp
- Ein G2-Maschinentyp.
G2-Maschinentypen unterstützen auch benutzerdefinierten Arbeitsspeicher. Der Arbeitsspeicher muss ein Vielfaches von 1.024 MB sein und innerhalb des unterstützten Arbeitsspeicherbereichs liegen. Der Maschinentypname für eine Instanz mit 4 vCPUs und 19 GB Arbeitsspeicher wäre beispielsweise
g2-custom-4-19456
.
SOURCE_IMAGE_URI
: Der URI für das spezifische Image oder die Image-Familie, die Sie verwenden möchten.Beispiel:
- Spezifisches Image:
"sourceImage": "projects/rocky-linux-cloud/global/images/rocky-linux-8-optimized-gcp-v20220719"
- Image-Familie:
"sourceImage": "projects/rocky-linux-cloud/global/images/family/rocky-linux-8-optimized-gcp"
.
Wenn Sie eine Image-Familie angeben, erstellt Compute Engine eine VM aus dem neuesten nicht verworfenen Betriebssystem-Image in dieser Familie. Weitere Informationen zur Verwendung von Image-Familien finden Sie unter Best Practices für Image-Familien.
- Spezifisches Image:
Optionale Flags
Wenn Sie Ihre Instanz weiter konfigurieren möchten, um die Anforderungen Ihrer Arbeitslast oder Ihres Betriebssystems zu erfüllen, fügen Sie beim Ausführen der Methode
instances.bulkInsert
ein oder mehrere der folgenden Flags ein.Funktion Beschreibung Bereitstellungsmodell Um die Kosten zu senken, können Sie ein anderes Bereitstellungsmodell angeben, indem Sie das Feld "provisioningModel": "PROVISIONING_MODEL"
dem Objektscheduling
in Ihrer Anfrage hinzufügen. Wenn Sie angeben, dass Spot-VMs erstellt werden sollen, werden die FelderonHostMaintenance
undautomaticRestart
ignoriert. Weitere Informationen finden Sie unter Bereitstellungsmodelle für Compute Engine-Instanzen."scheduling": { "onHostMaintenance": "terminate", "provisioningModel": "PROVISIONING_MODEL" }
Ersetzen Sie
PROVISIONING_MODEL
durch einen der folgenden Werte:STANDARD
: (Standard) Eine Standardinstanz.SPOT
: Eine Spot-VM.FLEX_START
: Eine Flex-Start-VM. Flex-Start-VMs werden bis zu sieben Tage lang ausgeführt und können Ihnen helfen, stark nachgefragte Ressourcen wie GPUs zu einem reduzierten Preis zu erwerben. Dieses Bereitstellungsmodell wird für G4-Instanzen nicht unterstützt.
Virtuelle Workstation Gibt eine virtuelle NVIDIA RTX-Workstation (vWS) für Grafikarbeitslasten an. Diese Funktion wird nur für G4- und G2-Instanzen unterstützt. "guestAccelerators": [ { "acceleratorCount": VWS_ACCELERATOR_COUNT, "acceleratorType": "projects/PROJECT_ID/zones/ZONE/acceleratorTypes/VWS_ACCELERATOR_TYPE" } ]
Ersetzen Sie Folgendes:
- Wählen Sie für
VWS_ACCELERATOR_TYPE
eine der folgenden Optionen aus:- Geben Sie für G4-Instanzen
nvidia-rtx-pro-6000-vws
an. - Geben Sie für G2-Instanzen
nvidia-l4-vws
an.
- Geben Sie für G4-Instanzen
- Geben Sie für
VWS_ACCELERATOR_COUNT
die Anzahl der benötigten virtuellen GPUs an.
Lokale SSD Hängt Ihrer Instanz eine oder mehrere lokale SSDs an. Lokale SSDs können als schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden. Die maximale Anzahl lokaler SSD-Laufwerke, die Sie pro VM-Instanz anhängen können, finden Sie unter Grenzwerte für lokale SSDs.{ "type": "SCRATCH", "autoDelete": true, "initializeParams": { "diskType": "projects/PROJECT_ID/zones/ZONE/diskTypes/local-nvme-ssd" } }
Netzwerkschnittstelle Hängt mehrere Netzwerkschnittstellen an Ihre Instanz an. Für g4-standard-384
-Instanzen können Sie bis zu zwei Netzwerkschnittstellen anhängen. So wird eine Instanz mit zwei Netzwerkschnittstellen (2 × 200 Gbit/s) erstellt. Jede Netzwerkschnittstelle muss sich in einem eindeutigen VPC-Netzwerk befinden."networkInterfaces": [ { "network": "projects/PROJECT_ID/global/networks/VPC_NAME_1", "subnetwork": "projects/PROJECT_ID/regions/REGION/subnetworks/SUBNET_NAME_1", "nicType": "GVNIC" }, { "network": "projects/PROJECT_ID/global/networks/VPC_NAME_2", "subnetwork": "projects/PROJECT_ID/regions/REGION/subnetworks/SUBNET_NAME_2", "nicType": "GVNIC" } ]
Duale Netzwerkschnittstellen werden nur auf
g4-standard-384
-Maschinentypen unterstützt.Ersetzen Sie Folgendes:
VPC_NAME
: der Name Ihres VPC-Netzwerks.SUBNET_NAME
: der Name des Subnetzes, das Teil des angegebenen VPC-Netzwerk ist.
Gruppen von N1-VMs für allgemeine Zwecke erstellen
Sie erstellen eine Gruppe von VMs mit angehängten GPUs über die Google Cloud CLI oder REST.
In diesem Abschnitt wird beschrieben, wie Sie VMs mit folgenden GPU-Typen erstellen:
NVIDIA-GPUs:
- NVIDIA® T4:
nvidia-tesla-t4
- NVIDIA P4:
nvidia-tesla-p4
- NVIDIA P100:
nvidia-tesla-p100
- NVIDIA V100:
nvidia-tesla-v100
NVIDIA RTX Virtuelle Workstation (vWS) (ehemals NVIDIA GRID):
- NVIDIA T4 Virtual Workstation:
nvidia-tesla-t4-vws
- NVIDIA P4 Virtual Workstation:
nvidia-tesla-p4-vws
NVIDIA P100 Virtual Workstation:
nvidia-tesla-p100-vws
Für diese virtuellen Workstations wird Ihrer Instanz automatisch eine Lizenz für NVIDIA RTX Virtual Workstation (vWS) hinzugefügt.
gcloud
Verwenden Sie zum Erstellen einer Gruppe von VMs den Befehl
gcloud compute instances bulk create
. Weitere Informationen zu den Parametern und zur Verwendung dieses Befehls finden Sie unter VMs im Bulk erstellen.Beispiel
Im folgenden Beispiel werden zwei VMs mit angehängten GPUs mit den folgenden Spezifikationen erstellt:
- VM-Namen:
my-test-vm-1
,my-test-vm-2
- VMs, die in einer beliebigen Zone in
us-central1
erstellt wurden, die GPUs unterstützt - An jede VM sind zwei T4-GPUs angehängt. Diese werden mit dem Flag „Beschleunigertyp“ und „Beschleunigeranzahl“ angegeben
- Auf jeder VM sind GPU-Treiber installiert
- Jede VM verwendet das Deep Learning VM Image
pytorch-latest-gpu-v20211028-debian-10
gcloud compute instances bulk create \ --name-pattern="my-test-vm-#" \ --count=2 \ --region=us-central1 \ --machine-type=n1-standard-2 \ --accelerator type=nvidia-tesla-t4,count=2 \ --boot-disk-size=200 \ --metadata="install-nvidia-driver=True" \ --scopes="https://www.googleapis.com/auth/cloud-platform" \ --image=pytorch-latest-gpu-v20211028-debian-10 \ --image-project=deeplearning-platform-release \ --on-host-maintenance=TERMINATE --restart-on-failure
Falls erfolgreich sieht die Ausgabe etwa so aus:
NAME ZONE my-test-vm-1 us-central1-b my-test-vm-2 us-central1-b Bulk create request finished with status message: [VM instances created: 2, failed: 0.]
REST
Verwenden Sie die Methode
instances.bulkInsert
mit den erforderlichen Parametern, um mehrere VMs in einer Zone zu erstellen. Weitere Informationen zu den Parametern und zur Verwendung dieses Befehls finden Sie unter VMs im Bulk erstellen.Beispiel
Im folgenden Beispiel werden zwei VMs mit angehängten GPUs mit den folgenden Spezifikationen erstellt:
- VM-Namen:
my-test-vm-1
,my-test-vm-2
- VMs, die in einer beliebigen Zone in
us-central1
erstellt wurden, die GPUs unterstützt - An jede VM sind zwei T4-GPUs angehängt. Diese werden mit dem Flag „Beschleunigertyp“ und „Beschleunigeranzahl“ angegeben
- Auf jeder VM sind GPU-Treiber installiert
- Jede VM verwendet das Deep Learning VM Image
pytorch-latest-gpu-v20211028-debian-10
Ersetzen Sie
PROJECT_ID
durch Ihre Projekt-ID.POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/us-central1/instances/bulkInsert { "namePattern":"my-test-vm-#", "count":"2", "instanceProperties": { "machineType":"n1-standard-2", "disks":[ { "type":"PERSISTENT", "initializeParams":{ "diskSizeGb":"200", "sourceImage":"projects/deeplearning-platform-release/global/images/pytorch-latest-gpu-v20211028-debian-10" }, "boot":true } ], "name": "default", "networkInterfaces": [ { "network": "projects/PROJECT_ID/global/networks/default" } ], "guestAccelerators": [ { "acceleratorCount": 2, "acceleratorType": "nvidia-tesla-t4" } ], "scheduling":{ "onHostMaintenance":"TERMINATE", "automaticRestart":true }, "metadata":{ "items":[ { "key":"install-nvidia-driver", "value":"True" } ] } } }
Nächste Schritte
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2025-10-22 (UTC).
-