Höhere Netzwerkbandbreiten können die Leistung Ihrer verteilten Arbeitslasten verbessern, die auf Compute Engine-VM-Instanzen ausgeführt werden.
Überblick
Für VMs mit angehängten GPUs in Compute Engine ist folgende maximale Netzwerkbandbreite verfügbar:
- Für N1-VMs für allgemeine Zwecke, an die P100-, P4- und K80-GPUs angeschlossen sind, steht eine maximale Netzwerkbandbreite von 32 Gbit/s zur Verfügung. Dies entspricht der maximalen Rate, die für N1-VMs verfügbar ist, denen keine GPUs zugeordnet sind. Weitere Informationen zu Netzwerkbandbreiten finden Sie unter maximale Rate ausgehender Daten.
- Für N1-VMs für allgemeine Zwecke, an die T4- und V100-GPUs angehängt sind, können Sie eine maximale Netzwerkbandbreite von bis zu 100 Gbit/s erhalten, basierend auf der Kombination aus GPU und Anzahl der vCPUs.
- Bei beschleunigungsoptimierten A2- und G2-VMs können Sie je nach Maschinentyp eine maximale Netzwerkbandbreite von bis zu 100 Gbit/s erhalten.
- Für beschleunigungsoptimierte A3-VMs können Sie eine maximale Netzwerkbandbreite von bis zu 1.000 Gbit/s (1 Tbit/s) erhalten.
Netzwerkbandbreite und Google Virtual NIC (gVNIC)
Um die höheren Netzwerkbandbreitenraten (50 Gbit/s oder höher) für Ihre GPU-VMs zu erhalten, wird die Verwendung von Google Virtual NIC (gVNIC) empfohlen. Weitere Informationen zum Erstellen von GPU-VMs, die gVNIC verwenden, finden Sie unter VMs mit höheren Bandbreiten erstellen.
Beschleunigungsoptimierte VMs
In diesem Abschnitt wird die maximale Netzwerkbandbreite beschrieben, die für beschleunigungsoptimierte VMs A3, A2 und G2 verfügbar ist.
A3-VMs
Jeder A3-Maschinentyp hat eine feste Anzahl von angehängten NVIDIA H100-GPUs mit 80 GB. Jeder Maschinentyp hat auch eine feste Anzahl an vCPUs und eine feste Arbeitsspeichergröße.
Jedea3-highgpu-8g
-VM hat fünf physische Netzwerkschnittstellen-Karten (NICs), von denen vier denselben PCIe-Bus (Peripheral Component Interconnect Express) und eine nicht identische Ausrichtung des Arbeitsspeicherzugriffs (NUMA) von einer NIC pro zwei NVIDIA H100-GPUs mit 80 GB haben. Diese vier physischen NICs sind ideal für die Kommunikation zwischen GPUs mit hoher Bandbreite und GPU.
Die andere physische NIC befindet sich auf einem separaten PCIe-Bus und ist ideal für andere Netzwerkanforderungen.
Jede NIC hat eine maximale Bandbreite von 200 Gbit/s, was einer maximalen Bandbreite von 1.000 Gbit/s (1 Tbit/s) pro VM entspricht.
Maschinentyp | GPU-Anzahl | vCPUs | Arbeitsspeicher | Maximale Netzwerkbandbreite |
---|---|---|---|---|
a3-highgpu-8g |
8 | 208 | 1872 GB | 1,000 Gbit/s |
A2-VMs
Jeder A2-Maschinentyp hat eine feste Anzahl von angehängten NVIDIA A100-GPUs mit 40 GB oder NVIDIA A100 80 GB. Jeder Maschinentyp hat auch eine feste Anzahl an vCPUs und eine feste Arbeitsspeichergröße.
A100 40GB
Maschinentyp | GPU-Anzahl | vCPUs | Arbeitsspeicher | Maximale Netzwerkbandbreite |
---|---|---|---|---|
a2-highgpu-1g |
1 | 12 | 85 GB | 24 Gbit/s |
a2-highgpu-2g |
2 | 24 | 170 GB | 32 Gbit/s |
a2-highgpu-4g |
4 | 48 | 340 GB | 50 Gbit/s |
a2-highgpu-8g |
8 | 96 | 680 GB | 100 Gbit/s |
a2-highgpu-16g |
16 | 96 | 1360 GB | 100 Gbit/s |
A100 80GB
Maschinentyp | GPU-Anzahl | vCPUs | Arbeitsspeicher | Maximale Netzwerkbandbreite |
---|---|---|---|---|
a2-ultragpu-1g |
1 | 12 | 170 GB | 24 Gbit/s |
a2-ultragpu-2g |
2 | 24 | 340 GB | 32 Gbit/s |
a2-ultragpu-4g |
4 | 48 | 680 GB | 50 Gbit/s |
a2-ultragpu-8g |
8 | 96 | 1360 GB | 100 Gbit/s |
G2-VM-Konfiguration
Jeder G2-Maschinentyp hat eine feste Anzahl von NVIDIA L4-GPUs und vCPUs. Jeder G2-Maschinentyp hat auch einen Standardarbeitsspeicher und einen benutzerdefinierten Arbeitsspeicherbereich. Der benutzerdefinierte Arbeitsspeicherbereich definiert die Größe des Arbeitsspeichers, den Sie Ihrer VM für jeden Maschinentyp zuweisen können. Sie können Ihren benutzerdefinierten Arbeitsspeicher während der VM-Erstellung angeben.
Maschinentyp | GPU-Anzahl | vCPU | Standardarbeitsspeicher | Benutzerdefinierter Arbeitsspeicherbereich | Maximale Netzwerkbandbreite |
---|---|---|---|---|---|
g2-standard-4 |
1 | 4 vCPUs | 16 GB | 16–32 GB | 10 Gbit/s |
g2-standard-8 |
1 | 8 vCPUs | 32 GB | 32–54 GB | 16 Gbit/s |
g2-standard-12 |
1 | 12 vCPUs | 48 GB | 48–54 GB | 16 Gbit/s |
g2-standard-16 |
1 | 16 vCPUs | 64 GB | 54–64 GB | 32 Gbit/s |
g2-standard-24 |
2 | 24 vCPUs | 96 GB | 96–108 GB | 32 Gbit/s |
g2-standard-32 |
1 | 32 vCPUs | 128 GB | 96–128 GB | 32 Gbit/s |
g2-standard-48 |
4 | 48 vCPUs | 192 GB | 192–216 GB | 50 Gbit/s |
g2-standard-96 |
8 | 96 vCPUs | 384 GB | 384–432 GB | 100 Gbit/s |
N1-GPU-VMs
Für N1-VMs für allgemeine Zwecke, an die T4- und V100-GPUs angehängt sind, können Sie eine maximale Netzwerkbandbreite von bis zu 100 Gbit/s erhalten, basierend auf der Kombination aus GPU und Anzahl der vCPUs. Informationen zu allen anderen N1-GPU-VMs finden Sie unter Übersicht.
Lesen Sie den folgenden Abschnitt, um die maximale Netzwerkbandbreite zu berechnen, die für Ihre T4- und V100-VMs basierend auf dem GPU-Modell, der vCPU und der GPU-Anzahl verfügbar ist.
Weniger als 5 vCPUs
Für T4- und V100-VMs mit maximal 5 vCPUs steht eine maximale Netzwerkbandbreite von 10 Gbit/s zur Verfügung.
Mehr als 5 vCPUs
Bei T4- und V100-VMs mit mehr als 5 vCPUs wird die maximale Netzwerkbandbreite anhand der Anzahl der vCPUs und GPUs für diese VM berechnet.
GPU-Modell | Anzahl der GPUs | Berechnung der maximalen Netzwerkbandbreite |
---|---|---|
NVIDIA V100 | 1 | min(vcpu_count * 2, 32) |
2 | min(vcpu_count * 2, 32) |
|
4 | min(vcpu_count * 2, 50) |
|
8 | min(vcpu_count * 2, 100) |
|
NVIDIA T4 | 1 | min(vcpu_count * 2, 32) |
2 | min(vcpu_count * 2, 50) |
|
4 | min(vcpu_count * 2, 100) |
VMs mit hoher Bandbreite erstellen
Informationen zum Erstellen von VMs mit höheren Netzwerkbandbreiten finden Sie unter Höhere Netzwerkbandbreite verwenden.
Zum Testen oder Prüfen der Bandbreitengeschwindigkeit für jede Konfiguration können Sie den Benchmarking-Test verwenden. Weitere Informationen finden Sie unter Netzwerkbandbreite prüfen.
Nächste Schritte
- Weitere Informationen zu GPU-Plattformen
- VMs mit angehängten GPUs erstellen
- Netzwerkbandbreite erhöhen
- GPU-Preisübersicht