Die Beschleunigeroptimierte Maschinenfamilie wurde von Google Cloud entwickelt, um die erforderliche Leistung und Effizienz für GPU-beschleunigte Arbeitslasten wie künstliche Intelligenz (KI), maschinelles Lernen (ML) und Hochleistungs-Computing zu bieten.
Die beschleunigungsoptimierte Maschinenfamilie ist in den folgenden Maschinenserien verfügbar: A3, A2 und G2. Jeder Maschinentyp innerhalb einer Reihe hat ein bestimmtes Modell und eine bestimmte Anzahl von NVIDIA-GPUs angehängt. Sie können auch einige GPU-Modelle an N1-Maschinentypen für allgemeine Zweckeall anhängen.
Empfehlung der Maschinenserie nach Arbeitslasttyp
Im folgenden Abschnitt finden Sie die empfohlene Maschinenserie basierend auf Ihren GPU-Arbeitslasten.
Große KI-Modelle
Arbeitslasttyp | Geeigneter Anwendungsfall | Gute Alternative |
---|---|---|
Training Mehrerer (verteilter) Server | A3 Mega | A3 High, A2 |
Inferenz | A3 High, A3 Edge | A2 |
Informationen zum Bereitstellen von Clustern für die Ausführung von Modellen und das Training im großen Maßstab finden Sie unter Training und Feinabstimmung von Modellen im großen Maßstab ausführen.
Mainstream-Modelle
Arbeitslasttyp | Geeigneter Anwendungsfall | Gute Alternative (in empfohlener Reihenfolge) |
---|---|---|
Training Mehrerer (verteilter) Server | A3 Mega, A3 High |
|
Training für einen einzelnen Server | A3 High, A3 Edge |
|
Inferenz | A3 Edge, G2 |
|
Informationen zum Bereitstellen von Clustern für die Ausführung von Mainstream-Modellen finden Sie unter Training und Feinabstimmung von Mainstream-Modellen ausführen.
Grafikintensive Arbeitslasten
Arbeitslasttyp | Best Fit (in empfohlener Reihenfolge) |
---|---|
Videostreaming und -transcodierung, virtuelle Remote-Workstations, digitale Zwillinge |
|
Hier finden Sie Informationen zur Bereitstellung von VMs für grafikintensive Arbeitslasten.
Hochleistungs-Computing
Für Hochleistungs-Computing-Arbeitslasten eignet sich jede beschleunigungsoptimierte Maschinenreihe. Die beste Lösung hängt davon ab, wie viel Rechenleistung an die GPU ausgelagert werden muss.
Preise und Rabatt
Alle beschleunigungsoptimierten Maschinentypen unterstützen die folgenden Rabatt- und Verbrauchsoptionen:
Für die Beschleuniger-optimierten Maschinentypen werden die angeschlossenen GPUs, die vordefinierten vCPUs, der Arbeitsspeicher und der lokale SSD-Speicher (sofern vorhanden) in Rechnung gestellt. Weitere Preisinformationen für beschleunigungsoptimierte VMs finden Sie auf der Seite „Preise für VM-Instanzen“ im Abschnitt Beschleunigungsoptimierte Maschinenfamilie.
Die A3-Maschinenserie
Die A3-Maschinenserie hat 208 vCPUs und 1.872 GB Arbeitsspeicher. Diese Maschinenreihe ist für speicher- und rechenintensive, netzwerkgebundene ML-Trainings und HPC-Arbeitslasten optimiert.
Die A3-Maschinenserie bietet auch die folgenden Features:
Hardware der nächsten Generation: An jeden A3-Maschinentyp sind NVIDIA H100 SXM-GPUs angeschlossen. Diese bieten 80 GB GPU-Arbeitsspeicher pro GPU und sind ideal für große Transformer-basierte Sprachmodelle, Datenbanken und HPC geeignet.
Diese Maschinenreihe basiert auf dem skalierbaren Intel Xeon-Prozessor der 4.Generation (Sapphire Rapids) und bietet eine kontinuierliche maximale Turbofrequenz für einen einzelnen Kern von bis zu 3,3 GHz.
Branchenführende NVLink-Skalierung: NVIDIA H100-GPUs bieten eine maximale GPU-NVLink-Bandbreite von 450 GB/s in nur eine Richtung. Bei einer All-to-All-NVLink-Topologie zwischen 8 GPUs in einem System beträgt die NVLink-Gesamtbandbreite bis zu 7, 2 Terabyte pro Sekunde. Diese GPUs können als einzelner Hochleistungs-Beschleuniger mit einheitlichem Arbeitsspeicher verwendet werden, um bis zu 25 PetaFLOPS Rechenleistung für KI/DL/ML und bis zu 50 PetaFLOPS Inferenz-Computing zu liefern.
Verbesserte Rechengeschwindigkeit und Netzwerkleistung: Die A3-Maschinenserie bietet im Vergleich zur A2-Maschinenserie der vorherigen Generation eine bis zu 2,5-mal höhere Netzwerkgeschwindigkeit. Weitere Informationen zu Netzwerken finden Sie unter Netzwerk und A3-Maschinenserie.
Optimierungen der Virtualisierung: Die PCIe-Topologie (Peripheral Component Interconnect Express) von A3-VMs bietet genauere Informationen zur Lokalität, mit denen Arbeitslasten die Datenübertragungen optimieren können.
Die NVIDIA H100-GPUs bieten außerdem einen Funktionsebenen-Reset (FLR) für eine reibungslose Wiederherstellung nach Fehlern und Unterstützung für atomare Vorgänge zur Verbesserung der Parallelität in bestimmten Szenarien.
Speicher: VMs, die mit einem der A3-Maschinentypen erstellt werden, werden automatisch 6.000 GiB lokaler SSD hinzugefügt. Lokale SSDs können als schnelle Scratch-Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden.
Sie können den Maschinentypen in dieser Serie auch bis zu 257 TiB nichtflüchtigen Speicher für Anwendungen hinzufügen, die eine höhere Speicherleistung erfordern.
Unterstützung für Richtlinien für kompakte Platzierungen: Bietet mehr Kontrolle über die physische Platzierung Ihrer VMs in Rechenzentren. Dies ermöglicht eine geringere Latenz und eine höhere Bandbreite für die VM-Platzierung innerhalb einer einzelnen Verfügbarkeitszone. Die Richtlinie für kompakte Platzierung unterstützt bis zu 96 VMs in einem Teil des Netzwerks mit niedrigerer Latenz innerhalb einer bestimmten Zone. Weitere Informationen finden Sie unter Latenz mithilfe von Richtlinien für kompakte Platzierung reduzieren.
Für die A3-Maschinenserie sind die folgenden Maschinentypen verfügbar.
A3 Mega-Maschinentyp
Maschinentyp | GPU-Anzahl | GPU-Speicher* (GB HBM3) |
vCPU Anzahl† | VM-Arbeitsspeicher (GB) | Angehängte lokale SSD (GiB) | Anzahl der physischen NICs | Maximale Netzwerkbandbreite (Gbit/s)‡ | Netzwerkprotokoll |
---|---|---|---|---|---|---|---|---|
a3-megagpu-8g |
8 | 640 | 208 | 1.872 | 6.000 | 9 | 1.800 | GPUDirect-TCPXO |
*GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
*†Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
A3 High-Maschinentyp
Wenn Siea3-highgpu-1g
-, a3-highgpu-2g
- oder a3-highgpu-4g
-Maschinentypen bereitstellen, müssen Sie entweder Spot-VMs oder eine Funktion verwenden, die den Dynamic Workload Scheduler (DWS) nutzt, z. B. Anfragen zum Ändern der Größe in einer MIG. Eine ausführliche Anleitung zu beiden Optionen findest du hier:
- Informationen zum Erstellen von Spot-VMs finden Sie unter Beschleunigungsoptimierte VM erstellen. Legen Sie das Bereitstellungsmodell auf
SPOT
fest. - Informationen zum Erstellen einer Anfrage zur Größenänderung in einer MIG, die Dynamic Workload Scheduler verwendet, finden Sie unter MIG mit GPU-VMs erstellen.
Maschinentyp | GPU-Anzahl | GPU-Speicher* (GB HBM3) |
vCPU Anzahl† | VM-Arbeitsspeicher (GB) | Angehängte lokale SSD (GiB) | Anzahl der physischen NICs | Maximale Netzwerkbandbreite (Gbit/s)‡ | Netzwerkprotokoll |
---|---|---|---|---|---|---|---|---|
a3-highgpu-1g |
1 | 80 | 26 | 234 | 750 | 1 | 25 | GPUDirect-TCPX |
a3-highgpu-2g |
2 | 160 | 52 | 468 | 1.500 | 1 | 50 | GPUDirect-TCPX |
a3-highgpu-4g |
4 | 320 | 104 | 936 | 3.000 | 1 | 100 | GPUDirect-TCPX |
a3-highgpu-8g |
8 | 640 | 208 | 1.872 | 6.000 | 5 | 1.000 | GPUDirect-TCPX |
*GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
*†Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
A3 Edge-Maschinentyp
Maschinentyp | GPU-Anzahl | GPU-Speicher* (GB HBM3) |
vCPU Anzahl† | VM-Arbeitsspeicher (GB) | Angehängte lokale SSD (GiB) | Anzahl der physischen NICs | Maximale Netzwerkbandbreite (Gbit/s)‡ | Netzwerkprotokoll |
---|---|---|---|---|---|---|---|---|
a3-edgegpu-8g |
8 | 640 | 208 | 1.872 | 6.000 | 5 |
|
GPUDirect-TCPX |
*GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
*†Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Unterstützte Laufwerktypen für die A3-Serie
A3-VMs können folgende Blockspeichertypen verwenden:
- Abgestimmter nichtflüchtiger Speicher (
pd-balanced
) - Nichtflüchtiger SSD-Speicher (Leistung) (
pd-ssd
) - Hyperdisk Balanced (
hyperdisk-balanced
): Hyperdisk Balanced wird nur füra3-megagpu-8g
,a3-highgpu-8g
unda3-edgegpu-8g
sowie für Maschinentypen unterstützt. - Hyperdisk ML (
hyperdisk-ml
) - Hyperdisk Extrem (
hyperdisk-extreme
) - Hyperdisk Durchsatz (
hyperdisk-throughput
) - Lokales SSD: Wird VMs automatisch hinzugefügt, die mit dem A3-Maschinentyp erstellt werden.
A3 Mega
Maximale Anzahl von Laufwerken pro VM* | ||||||
---|---|---|---|---|---|---|
Maschinentypen |
Alle Laufwerke† | Hyperdisk Balanced | Hyperdisk Durchsatz | Hyperdisk ML | Hyperdisk Extrem | Angehängte lokale SSDs |
a3-megagpu-8g |
128 | 32 | 64 | 64 | 8 | 16 |
A3 High
Maximale Anzahl von Laufwerken pro VM* | ||||||
---|---|---|---|---|---|---|
Maschinentypen |
Alle Laufwerke† | Hyperdisk Balanced | Hyperdisk Durchsatz | Hyperdisk ML | Hyperdisk Extrem | Angehängte lokale SSDs |
a3-highgpu-1g |
128 | – | 64 | 64 | – | 2 |
a3-highgpu-2g |
128 | – | 64 | 64 | – | 4 |
a3-highgpu-4g |
128 | – | 64 | 64 | 8 | 8 |
a3-highgpu-8g |
128 | 32 | 64 | 64 | 8 | 16 |
A3 Edge
Maximale Anzahl von Laufwerken pro VM* | ||||||
---|---|---|---|---|---|---|
Maschinentypen | Alle Laufwerke† | Hyperdisk Balanced | Hyperdisk Durchsatz | Hyperdisk ML | Hyperdisk Extrem | Angehängtes lokales SSD |
a3-edgegpu-8g |
128 | 32 | 64 | 64 | 8 | 16 |
* Die Nutzung von Hyperdisk und Persistent Disk wird zusätzlich zu den Preisen der Maschinentypen berechnet. Informationen zu den Laufwerkpreisen finden Sie unter Preise für nichtflüchtigen Speicher und Hyperdisks.
†Dieses Limit gilt für Persistent Disk und Hyperdisk, nicht jedoch für lokale SSDs.
Laufwerks- und Kapazitätslimits
Sie können eine Mischung aus Persistent Disk- und Hyperdisk-Volumes mit einer VM verwenden. Es gelten jedoch die folgenden Einschränkungen.
- Die Gesamtzahl der Hyperdisk- und Persistent Disk-Volumes darf 128 pro VM nicht überschreiten.
Die maximale Gesamt-Laufwerkskapazität (in TiB) für alle Laufwerkstypen darf Folgendes nicht überschreiten:
Für Maschinentypen mit weniger als 32 vCPUs:
- 257 TiB für alle Hyperdisk- oder Persistent Disk-Volumes
- 257 TiB für eine Mischung aus Hyperdisk und Persistent Disk
Für Maschinentypen mit 32 vCPUs oder mehr:
- 512 TiB für alle Hyperdisk-Volume
- 512 TiB für eine Mischung aus Hyperdisk und Persistent Disk
- 257 TiB für alle nichtflüchtigen Speicher
Weitere Informationen zu den Kapazitätslimits finden Sie unter Hyperdisk-Kapazitätslimits pro VM und Maximale Kapazität von Persistent Disk.
Netzwerke und die A3-Maschinenserie
Die A3-Maschinenserie bietet eine bis zu 2,5-fache Verbesserung der Rechengeschwindigkeit im Vergleich zur A2-Maschinenserie. Der a3-highgpu-8g
-Maschinentyp bietet eine zehnmal höhere Netzwerkbandbreite als A2-Maschinentypen der vorherigen Generation.
Der Maschinentyp a3-megagpu-8g
bietet eine doppelt so hohe Netzwerkbandbreite wie a3-highgpu-8g
und eine 20-mal so hohe Netzwerkbandbreite wie A2-Maschinentypen.
- A3-VMs mit einer einzelnen NIC: Für A3-VMs mit 1 bis 4 angehängten GPUs ist nur eine physische Netzwerkschnittstellenkarte (NIC) verfügbar.
- A3-VMs mit mehreren NICs: Für A3-VMs mit 8 angehängten GPUs sind mehrere physische NICs verfügbar. Bei diesen A3-Maschinentypen sind die NICs auf einem PCIe-Bus (Peripheral Component Interconnect Express) so angeordnet:
- Für den Maschinentyp „A3 Mega“ ist eine NIC-Anordnung von 8+1 verfügbar. Bei dieser Anordnung teilen sich 8 NICs denselben PCIe-Bus und 1 NIC befindet sich auf einem separaten PCIe-Bus.
- Für den Maschinentyp „A3 High“ ist eine NIC-Anordnung von 4+1 verfügbar. Bei dieser Anordnung teilen sich 4 NICs denselben PCIe-Bus und eine NIC befindet sich auf einem separaten PCIe-Bus.
- Für den Maschinentyp „A3 Edge“ ist eine NIC-Anordnung von 4+1 verfügbar. Bei dieser Anordnung teilen sich 4 NICs denselben PCIe-Bus und eine NIC befindet sich auf einem separaten PCIe-Bus. Diese fünf NICs bieten eine Gesamtnetzwerkbandbreite von 400 Gbit/s pro VM.
NICs, die denselben PCIe-Bus verwenden, haben eine uneinheitliche Ausrichtung des Arbeitsspeicherzugriffs (NUMA) von einer NIC pro zwei NVIDIA H100-GPUs mit 80 GB. Diese NICs sind ideal für die dedizierte GPU-zu-GPU-Kommunikation mit hoher Bandbreite. Die physische NIC, die sich auf einem separaten PCIe-Bus befindet, ist ideal für andere Netzwerkanforderungen.
Netzwerkprotokolle
Die A3-Maschinenserie bietet eine verbesserte GPU-Clusterleistung mit GPUDirect-TCPX und GPUDirect-TCPXO.
- Bei den Maschinentypen A3 Edge und A3 High erhöht GPUDirect-TCPX die Netzwerkleistung, indem Datennutzlasten direkt vom GPU-Speicher an die Netzwerkschnittstelle übertragen werden können. Durch die Nutzung von GPUDirect-TCPX erreicht der
a3-highgpu-8g
-Maschinentyp im Vergleich zu den beschleunigungsoptimierten A2- oder G2-Maschinentypen einen viel höheren Durchsatz zwischen VMs in einem Cluster. - Bei den Maschinentypen A3 Mega verbessert GPUDirect-TCPXO GPUDirect-TCPX weiter, indem die Verarbeitung des TCP-Protokolls an die ACC-Kerne der SmartNIC ausgelagert wird. Durch die Nutzung von GPUDirect-TCPXO verdoppelt der Maschinentyp
a3-megagpu-8g
die Netzwerkbandbreite im Vergleich zum Maschinentypa3-highgpu-8g
.
Einschränkungen für die A3-Serie
Für VMs mit den Maschinentypen A3 Edge, A3 High und A3 Mega gelten die folgenden Einschränkungen:
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für zugesicherte Nutzung für VMs, die A3-Maschinentypen verwenden.
- Sie können die A3-Standard-Maschinentypen nur in bestimmten Regionen und Zonen verwenden.
- Sie können regionale nichtflüchtige Speicher nicht auf VMs verwenden, die A3-Standard-Maschinentypen nutzen.
- Die A3-Maschinenserie ist nur auf der Sapphire Rapids-Plattform verfügbar.
- Wenn Ihre VM einen A3-Maschinentyp verwendet, können Sie den Maschinentyp nicht ändern. Wenn Sie den Maschinentyp ändern müssen, müssen Sie eine neue VM erstellen.
- Sie können den Maschinentyp einer VM nicht in einen A3-Maschinentyp ändern. Wenn Sie eine VM benötigen, die einen A3-Maschinentyp verwendet, müssen Sie eine neue VM erstellen.
- A3-Maschinentypen unterstützen keine einzelnen Mandanten.
- Sie können Windows-Betriebssysteme nicht auf A3-Maschinentypen ausführen.
- A3-Maschinentypen können nur über bestimmte Reservierungen reserviert werden.
- Für die Maschinentypen
a3-highgpu-1g
,a3-highgpu-2g
unda3-highgpu-4g
gelten die folgenden Einschränkungen:-
Für diese Maschinentypen müssen Sie entweder Spot-VMs oder eine Funktion verwenden, die den Dynamic Workload Scheduler (DWS) nutzt, z. B. Anfragen zur Größenänderung in einer MIG. Eine ausführliche Anleitung zu beiden Optionen findest du hier:
- Informationen zum Erstellen von Spot-VMs finden Sie unter Beschleunigungsoptimierte VM erstellen. Legen Sie das Bereitstellungsmodell auf
SPOT
fest. - Informationen zum Erstellen einer Anfrage zur Größenänderung in einer MIG, die Dynamic Workload Scheduler verwendet, finden Sie unter MIG mit GPU-VMs erstellen.
- Informationen zum Erstellen von Spot-VMs finden Sie unter Beschleunigungsoptimierte VM erstellen. Legen Sie das Bereitstellungsmodell auf
- Sie können Hyperdisk Balanced mit diesen Maschinentypen nicht verwenden.
- Sie können keine Reservierungen erstellen.
-
Für diese Maschinentypen müssen Sie entweder Spot-VMs oder eine Funktion verwenden, die den Dynamic Workload Scheduler (DWS) nutzt, z. B. Anfragen zur Größenänderung in einer MIG. Eine ausführliche Anleitung zu beiden Optionen findest du hier:
Die A2-Maschinenserie
Die A2-Maschinenserie ist in den Maschinentypen A2-Standard und A2-Ultra verfügbar. Diese Maschinentypen haben 12 bis 96 vCPUs und bis zu 1.360 GB Arbeitsspeicher.
Die A2-Maschinenserie bietet auch die folgenden Features:
Angehängte NVIDIA-GPUs: Jeder A2-Maschinentyp hat NVIDIA A100-GPUs. Diese sind in den Optionen A100 mit 40 GB sowie A100 mit 80 GB verfügbar.
Branchenführende NVLink-Skalierung, die eine maximale GPU-zu-GPU-NVLink-Bandbreite von 600 GBps bietet Beispielsweise haben Systeme mit 16 GPUs eine NVLink-Bandbreite von bis zu 9,6 Terabyte pro Sekunde. Diese 16 GPUs können als einzelner Hochleistungs-Beschleuniger mit einheitlichem Arbeitsspeicher verwendet werden, um bis zu 10 petaFLOPS Rechenleistung zu liefern, und bis zu 20 PetaFLOPS Inferenz-Computing, die für künstliche Intelligenz, Deep Learning und ML-Arbeitslasten verwendet werden kann.
Rechengeschwindigkeit der nächsten Generation: Die angehängten NVIDIA A100-GPUs bieten im Vergleich zu NVIDIA V100-GPUs der vorherigen Generation eine bis zu zehnmal höhere Rechengeschwindigkeit.
Mit der A2-Maschinenserie erhalten Sie bis zu 100 Gbit/s-Netzwerkbandbreite.
Speicher: Für schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs, während E/A-Engpässe vermieden werden, unterstützen die A2-Maschinentypen lokale SSDs so:
- Bei den A2-Standard-Maschinentypen können Sie bis zu 3.000 GiB an lokalen SSDs hinzufügen.
- Bei den A2-Ultra-Maschinentypen wird der lokale SSD beim Erstellen der VM automatisch angehängt.
Bei Anwendungen, die diese höhere Speicherleistung erfordern, können Sie auch bis zu 257 TiB nichtflüchtigen Speicher an A2-VMs anhängen.
Unterstützung für Richtlinien für kompakte Platzierungen: Bietet mehr Kontrolle über die physische Platzierung Ihrer VMs in Rechenzentren. Dies ermöglicht eine geringere Latenz und eine höhere Bandbreite für die VM-Platzierung innerhalb einer einzelnen Verfügbarkeitszone. Weitere Informationen finden Sie unter Latenz mithilfe von Richtlinien für kompakte Platzierung reduzieren.
Unterstützte Laufwerktypen für A2
A2-VMs können folgende Blockspeichertypen verwenden:
- Hyperdisk ML (
hyperdisk-ml
) - Abgestimmter nichtflüchtiger Speicher (
pd-balanced
) - Nichtflüchtiger SSD-Speicher (Leistung) (
pd-ssd
) - Nichtflüchtiger Standardspeicher (
pd-standard
) - Lokales SSD: Wird automatisch an VMs angehängt, die mit den A2 Ultra-Maschinentypen erstellt wurden.
Sie können eine Mischung aus Persistent Disk- und Hyperdisk-Volumes mit einer VM verwenden. Es gelten jedoch die folgenden Einschränkungen.
- Die Gesamtzahl der Hyperdisk- und Persistent Disk-Volumes darf 128 pro VM nicht überschreiten.
Die maximale Gesamt-Laufwerkskapazität (in TiB) für alle Laufwerkstypen darf Folgendes nicht überschreiten:
Für Maschinentypen mit weniger als 32 vCPUs:
- 257 TiB für alle Hyperdisk- oder Persistent Disk-Volumes
- 257 TiB für eine Mischung aus Hyperdisk und Persistent Disk
Für Maschinentypen mit 32 vCPUs oder mehr:
- 512 TiB für alle Hyperdisk-Volume
- 512 TiB für eine Mischung aus Hyperdisk und Persistent Disk
- 257 TiB für alle nichtflüchtigen Speicher
Weitere Informationen zu den Kapazitätslimits finden Sie unter Hyperdisk-Kapazitätslimits pro VM und Maximale Kapazität von Persistent Disk.
A2-Ultra-Maschinentypen
Diese Maschinentypen haben eine feste Anzahl von A100-GPUs mit 80GB. Lokale SSDs werden automatisch an VMs angehängt, die mit den A2 Ultra-Maschinentypen erstellt wurden.
Maschinentyp | GPU-Anzahl | GPU-Speicher* (GB HBM3) |
vCPU Anzahl† | VM-Arbeitsspeicher (GB) | Angehängte lokale SSD (GiB) | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|
a2-ultragpu-1g |
1 | 80 | 12 | 170 | 375 | 24 |
a2-ultragpu-2g |
2 | 160 | 24 | 340 | 750 | 32 |
a2-ultragpu-4g |
4 | 320 | 48 | 680 | 1.500 | 50 |
a2-ultragpu-8g |
8 | 640 | 96 | 1.360 | 3.000 | 100 |
*GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
*†Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A2 Ultra
- Sie erhalten weder kontinuierlichen Nutzungsrabatte noch flexible Rabatte für die zugesicherte Nutzung für VMs, die A2-Ultra-Maschinentypen verwenden.
- Sie können die A2-Ultra-Maschinentypen nur in bestimmten Regionen und Zonen verwenden.
- Sie können regionale nichtflüchtige Speicher nicht auf VMs verwenden, die A2-Ultra-Maschinentypen verwenden.
- Die A2-Ultra-Maschinentypen sind nur auf der Cascade Lake-Plattform verfügbar.
- Wenn Ihre VM einen A2-Ultra-Maschinentyp verwendet, können Sie den Maschinentyp nicht ändern. Wenn Sie einen anderen A2-Ultra-Maschinentyp oder einen anderen Maschinentyp verwenden müssen, müssen Sie eine neue VM erstellen.
- Sie können keinen anderen Maschinentyp in einen A2-Ultra-Maschinentyp ändern. Wenn Sie eine VM benötigen, die eine A2-Ultra-Maschinenfamilie verwendet, müssen Sie eine neue VM erstellen.
- Sie können die schnelle Formatierung der angehängten lokalen SSDs nicht auf Windows-VMs verwenden, die A2-Ultra-Maschinentypen verwenden. Um diese lokalen SSDs zu formatieren, müssen Sie eine vollständige Formatierung mit dem diskpart-Dienstprogramm durchführen und
format fs=ntfs label=tmpfs
angeben.
A2-Standardmaschinentypen
Diese Maschinentypen haben eine feste Anzahl von A100-GPUs mit 40GB.
Maschinentyp | GPU-Anzahl | GPU-Speicher* (GB HBM3) |
vCPU Anzahl† | VM-Arbeitsspeicher (GB) | Angehängte lokale SSD (GiB) | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|
a2-highgpu-1g |
1 | 40 | 12 | 85 | Ja | 24 |
a2-highgpu-2g |
2 | 80 | 24 | 170 | Ja | 32 |
a2-highgpu-4g |
4 | 160 | 48 | 340 | Ja | 50 |
a2-highgpu-8g |
8 | 320 | 96 | 680 | Ja | 100 |
a2-megagpu-16g |
16 | 640 | 96 | 1.360 | Ja | 100 |
*GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
*†Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A2-Standard
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für zugesicherte Nutzung für VMs, die G2-Standard-Maschinentypen verwenden.
- Sie können die A2-Standard-Maschinentypen nur in bestimmten Regionen und Zonen verwenden.
- Sie können regionale nichtflüchtige Speicher nicht auf VMs verwenden, die A2-Standard-Maschinentypen verwenden.
- Die A2-Standardmaschinentypen sind nur auf der Cascade Lake-Plattform verfügbar.
- Wenn Ihre VM einen A2-Standardmaschinentyp verwendet, können Sie nur von einem A2-Standardmaschinentyp zu einem anderen A2-Standardmaschinentyp wechseln. Sie können keinen anderen Maschinentyp ändern. Weitere Informationen finden Sie unter Beschleunigeroptimierte VMs ändern.
- Sie können das Windows-Betriebssystem nicht mit den Maschinentypen <codea2-megagpu-16g< code="" dir="ltr" translate="no"> A2 Standard verwenden. Wählen Sie einen anderen A2-Standard-Maschinentyp aus, wenn Sie Windows-Betriebssysteme verwenden.</codea2-megagpu-16g<>
- Sie können die schnelle Formatierung der angehängten lokalen SSDs nicht auf Windows-VMs verwenden, die A2-Standard-Maschinentypen verwenden. Um diese lokalen SSDs zu formatieren, müssen Sie eine vollständige Formatierung mit dem diskpart-Dienstprogramm durchführen und
format fs=ntfs label=tmpfs
angeben. - A2-Standardmaschinentypen unterstützen einzelne Mandanten nicht.
Die G2-Maschinenserie
Die G2-Maschinenserie ist in Standardmaschinentypen verfügbar, die haben 4 bis 96 vCPUs und bis zu 432 GB Arbeitsspeicher. Diese Maschinenserie ist für Inferenz- und Grafikarbeitslasten optimiert.
Die G2-Maschinenserie bietet auch die folgenden Features:
Angehängte NVIDIA-GPUs: Jeder G2-Maschinentyp hat NVIDIA L4-GPUs.
Verbesserte Inferenzraten: Die G2-Maschinentypen unterstützen den Datentyp FP8 (8-Bit-Gleitkomma), was ML-Inferenzraten beschleunigt und Arbeitsspeicherbedarf reduziert.
Grafikleistung der nächsten Generation: NVIDIA L4-GPUs bieten mit RT-Kernen der dritten Generation und NVIDIA DLSS 3-Technologie (Deep Learning Super Sampling) eine bis zu dreimal höhere Grafikleistung.
Hohe Netzwerkbandbreite: Mit der G2-Maschinenserie erhalten Sie bis zu 100 Gbit/s-Netzwerkbandbreite.
Speicher: Sie können G2-VMs bis zu 3.000 GiB lokale SSD hinzufügen. Dies kann als schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden.
Sie können G2-VMs auch Hyperdisk- und Persistent Disk-Volumes zuordnen, wenn Anwendungen mehr nichtflüchtigen Speicher benötigen. Die maximale Speicherkapazität hängt von der Anzahl der vCPUs der VM ab. Weitere Informationen finden Sie unter Unterstützte Laufwerkstypen.
Unterstützung für Richtlinien für kompakte Platzierungen: Bietet mehr Kontrolle über die physische Platzierung Ihrer VMs in Rechenzentren. Dies ermöglicht eine geringere Latenz und eine höhere Bandbreite für die VM-Platzierung innerhalb einer einzelnen Verfügbarkeitszone. Weitere Informationen finden Sie unter Latenz mithilfe von Richtlinien für kompakte Platzierung reduzieren.
Unterstützte Laufwerktypen für G2
G2-VMs können folgende Blockspeichertypen verwenden:
- Abgestimmter nichtflüchtiger Speicher (
pd-balanced
) - Nichtflüchtiger SSD-Speicher (Leistung) (
pd-ssd
) - Hyperdisk ML (
hyperdisk-ml
) - Hyperdisk Durchsatz (
hyperdisk-throughput
) - Lokale SSD
Sie können eine Mischung aus Persistent Disk- und Hyperdisk-Volumes mit einer VM verwenden. Es gelten jedoch die folgenden Einschränkungen.
- Die Gesamtzahl der Hyperdisk- und Persistent Disk-Volumes darf 128 pro VM nicht überschreiten.
Die maximale Gesamt-Laufwerkskapazität (in TiB) für alle Laufwerkstypen darf Folgendes nicht überschreiten:
Für Maschinentypen mit weniger als 32 vCPUs:
- 257 TiB für alle Hyperdisk- oder Persistent Disk-Volumes
- 257 TiB für eine Mischung aus Hyperdisk und Persistent Disk
Für Maschinentypen mit 32 vCPUs oder mehr:
- 512 TiB für alle Hyperdisk-Volume
- 512 TiB für eine Mischung aus Hyperdisk und Persistent Disk
- 257 TiB für alle nichtflüchtigen Speicher
Weitere Informationen zu den Kapazitätslimits finden Sie unter Hyperdisk-Kapazitätslimits pro VM und Maximale Kapazität von Persistent Disk.
G2-Maschinentypen
Jeder G2-Maschinentyp hat eine feste Anzahl von NVIDIA L4-GPUs und vCPUs. Jeder G2-Maschinentyp hat auch einen Standardarbeitsspeicher und einen benutzerdefinierten Arbeitsspeicherbereich. Der benutzerdefinierte Arbeitsspeicherbereich definiert die Größe des Arbeitsspeichers, den Sie Ihrer VM für jeden Maschinentyp zuweisen können. Sie können Ihren benutzerdefinierten Arbeitsspeicher während der VM-Erstellung angeben.
Maschinentyp | GPU-Anzahl | GPU-Speicher* (GB GDDR6) | vCPU Anzahl† | Standard-VM-Arbeitsspeicher (GB) | Benutzerdefinierter VM-Arbeitsspeicherbereich (GB) | Maximal unterstützte lokale SSD (GiB) | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|---|
g2-standard-4 |
1 | 24 | 4 | 16 | 16 bis 32 | 375 | 10 |
g2-standard-8 |
1 | 24 | 8 | 32 | 32 bis 54 | 375 | 16 |
g2-standard-12 |
1 | 24 | 12 | 48 | 48 bis 54 | 375 | 16 |
g2-standard-16 |
1 | 24 | 16 | 64 | 54 bis 64 | 375 | 32 |
g2-standard-24 |
2 | 48 | 24 | 96 | 96 bis 108 | 750 | 32 |
g2-standard-32 |
1 | 24 | 32 | 128 | 96 bis 128 | 375 | 32 |
g2-standard-48 |
4 | 96 | 48 | 192 | 192 bis 216 | 1.500 | 50 |
g2-standard-96 |
8 | 192 | 96 | 384 | 384 bis 432 | 3.000 | 100 |
*GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
*†Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
G2-Einschränkungen
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für zugesicherte Nutzung für VMs, die G2-Maschinentypen verwenden.
- Sie können die G2-Maschinentypen nur in bestimmten Regionen und Zonen verwenden.
- Sie können regionale nichtflüchtige Speicher nicht auf VMs verwenden, die G2-Maschinentypen verwenden.
- Die G2-Maschinentypen sind nur auf der Cascade Lake-Plattform verfügbar.
- Nichtflüchtige Standardspeicher (
pd-standard
) werden auf VMs, die G2-Standardmaschinentypen verwenden, nicht unterstützt. Informationen zu unterstützten Laufwerkstypen finden Sie unter Unterstützte Laufwerkstypen für G2. - Sie können keine GPUs mit mehreren Instanzen auf G2-Maschinentypen erstellen.
- Wenn Sie den Maschinentyp einer G2-VM ändern müssen, lesen Sie die Informationen unter Beschleunigeroptimierte VMs ändern.
- Sie können keine Deep Learning VM Images als Bootlaufwerke für VMs verwenden, die G2-Maschinentypen verwenden.
- Der aktuelle Standardtreiber für Container-Optimized OS unterstützt keine L4-GPUs, die auf G2-Maschinentypen ausgeführt werden. Container-Optimized OS unterstützt auch nur bestimmte Treiber.
Wenn Sie Container-Optimized OS auf G2-Maschinentypen verwenden möchten, lesen Sie die folgenden Hinweise:
- Verwenden Sie eine Container-Optimized OS-Version, die die mindestens empfohlene NVIDIA-Treiberversion
525.60.13
oder höher unterstützt. Weitere Informationen finden Sie in den Versionshinweisen zu Container-Optimized OS. - Geben Sie bei der Installation des Treibers die neueste verfügbare Version an, die für die L4-GPUs funktioniert.
Beispiel:
sudo cos-extensions install gpu -- -version=525.60.13
.
- Verwenden Sie eine Container-Optimized OS-Version, die die mindestens empfohlene NVIDIA-Treiberversion
- In den folgenden Szenarien müssen Sie über die Google Cloud CLI oder REST G2-VMs erstellen:
- Sie möchten benutzerdefinierte Speicherwerte angeben.
- Sie möchten die Anzahl der sichtbaren CPU-Kerne anpassen.