Compute Engine bietet GPUs (Graphical Processing Units), die Sie Ihren VM-Instanzen hinzufügen können. Sie können diese GPUs nutzen, um bestimmte Arbeitslasten wie maschinelles Lernen und Datenverarbeitung auf Ihren VMs zu beschleunigen.
NVIDIA-GPUs werden für Ihre VMs von Compute Engine im Passthrough-Modus bereitgestellt, sodass Ihre VMs direkte Kontrolle über die GPUs und den zugehörigen Arbeitsspeicher haben.
Wenn Sie grafikintensive Arbeitslasten haben, z. B. 3D-Visualisierung, 3D-Rendering oder virtuelle Anwendungen, können Sie virtuelle NVIDIA RTX-Workstations verwenden (früher als NVIDIA GRID bezeichnet).
Dieses Dokument bietet eine Übersicht über die verschiedenen GPU-Modelle, die in Compute Engine verfügbar sind.
Hinweis: Informationen zu den verfügbaren Regionen und Zonen für GPUs in Compute Engine finden Sie unter Verfügbarkeit von GPU-Regionen und -Zonen.
NVIDIA-GPUs für Computing-Arbeitslasten
Für Compute-Arbeitslasten stehen GPU-Modelle in folgenden Phasen zur Verfügung:
- NVIDIA H100 80GB:
nvidia-h100-80gb
: allgemein verfügbar - NVIDIA L4:
nvidia-l4
: Allgemein verfügbar - NVIDIA A100
- NVIDIA A100 40GB:
nvidia-tesla-a100
: allgemein verfügbar - NVIDIA A100 80GB:
nvidia-a100-80gb
: allgemein verfügbar
- NVIDIA A100 40GB:
- NVIDIA T4:
nvidia-tesla-t4
: Allgemein verfügbar - NVIDIA V100:
nvidia-tesla-v100
: Allgemein verfügbar - NVIDIA P100:
nvidia-tesla-p100
: Allgemein verfügbar - NVIDIA P4:
nvidia-tesla-p4
: Allgemein verfügbar - NVIDIA K80:
nvidia-tesla-k80
: Allgemein verfügbar Siehe Ende des Supports für NVIDIA K80.
NVIDIA H100-GPUs
Um NVIDIA H100 80GB-GPUs auszuführen, müssen Sie einen A3-Beschleunigeroptimierten Maschinentyp verwenden.
GPU-Modell | Maschinentyp | GPUs | GPU-Speicher* | Verfügbare vCPUs | Verfügbarer Speicher | Unterstützung lokaler SSDs |
---|---|---|---|---|---|---|
NVIDIA H100 | a3-highgpu-8g |
8 GPUs | 640 GB HBM3 | 208 vCPUs | 1872 GB | Gebündelt (6000 GB) |
*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
NVIDIA L4-GPUs
Um NVIDIA L4-GPUs auszuführen, müssen Sie einen beschleunigungsoptimierten G2-Maschinentyp verwenden.
Jeder G2-Maschinentyp hat eine feste Anzahl von NVIDIA L4-GPUs und vCPUs. Jeder G2-Maschinentyp hat auch einen Standardarbeitsspeicher und einen benutzerdefinierten Arbeitsspeicherbereich. Der benutzerdefinierte Arbeitsspeicherbereich definiert die Größe des Arbeitsspeichers, den Sie Ihrer VM für jeden Maschinentyp zuweisen können. Sie können Ihren benutzerdefinierten Arbeitsspeicher während der VM-Erstellung angeben.
GPU-Modell | Maschinentyp | GPUs | GPU-Speicher* | vCPUs | Standardarbeitsspeicher | Benutzerdefinierter Arbeitsspeicherbereich | Maximale Größe lokaler SSDs |
---|---|---|---|---|---|---|---|
NVIDIA L4 | g2-standard-4 |
1 GPU | 24 GB GDDR6 | 4 vCPUs | 16 GB | 16–32 GB | 375 GB |
g2-standard-8 |
1 GPU | 24 GB GDDR6 | 8 vCPUs | 32 GB | 32–54 GB | 375 GB | |
g2-standard-12 |
1 GPU | 24 GB GDDR6 | 12 vCPUs | 48 GB | 48–54 GB | 375 GB | |
g2-standard-16 |
1 GPU | 24 GB GDDR6 | 16 vCPUs | 64 GB | 54–64 GB | 375 GB | |
g2-standard-24 |
2 GPUs | 48 GB GDDR6 | 24 vCPUs | 96 GB | 96–108 GB | 750 GB | |
g2-standard-32 |
1 GPU | 24 GB GDDR6 | 32 vCPUs | 128 GB | 96–128 GB | 375 GB | |
g2-standard-48 |
4 GPUs | 96 GB GDDR6 | 48 vCPUs | 192 GB | 192–216 GB | 1.500 GB | |
g2-standard-96 |
8 GPUs | 192 GB GDDR6 | 96 vCPUs | 384 GB | 384–432 GB | 3000 GB |
*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
NVIDIA A100-GPUs
Um NVIDIA A100-GPUs auszuführen, müssen Sie den beschleunigungsoptimierten A2-Maschinentyp verwenden.
Jeder A2-Maschinentyp hat eine feste GPU-Anzahl, eine Anzahl von vCPUs und eine vorgegebene Speichergröße.
A100 40GB
GPU-Modell | Maschinentyp | GPUs | GPU-Speicher* | Verfügbare vCPUs | Verfügbarer Speicher | Unterstützung lokaler SSDs |
---|---|---|---|---|---|---|
NVIDIA A100 40GB | a2-highgpu-1g |
1 GPU | 40 GB HBM2 | 12 vCPUs | 85 GB | Ja |
a2-highgpu-2g |
2 GPUs | 80 GB HBM2 | 24 vCPUs | 170 GB | Ja | |
a2-highgpu-4g |
4 GPUs | 160 GB HBM2 | 48 vCPUs | 340 GB | Ja | |
a2-highgpu-8g |
8 GPUs | 320 GB HBM2 | 96 vCPUs | 680 GB | Ja | |
a2-megagpu-16g |
16 GPUs | 640 GB HBM2 | 96 vCPUs | 1360 GB | Ja |
A100 80GB
GPU-Modell | Maschinentyp | GPUs | GPU-Speicher* | Verfügbare vCPUs | Verfügbarer Speicher | Unterstützung lokaler SSDs |
---|---|---|---|---|---|---|
NVIDIA A100 80GB | a2-ultragpu-1g |
1 GPU | 80 GB HBM2e | 12 vCPUs | 170 GB | Gebündelt (375 GB) |
a2-ultragpu-2g |
2 GPUs | 160 GB HBM2e | 24 vCPUs | 340 GB | Gebündelt (750 GB) | |
a2-ultragpu-4g |
4 GPUs | 320 GB HBM2e | 48 vCPUs | 680 GB | Gebündelt (1,5 TB) | |
a2-ultragpu-8g |
8 GPUs | 640 GB HBM2e | 96 vCPUs | 1360 GB | Gebündelt (3 TB) |
*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
NVIDIA T4-GPUs
Für VMs mit einer geringeren Anzahl von GPUs ist eine Höchstanzahl von vCPUs vorgegeben. Im Allgemeinen ermöglicht es Ihnen eine höhere Anzahl von GPUs, Instanzen mit einer größeren Anzahl von vCPUs und mehr Arbeitsspeicher zu erstellen.
GPU-Modell | Maschinentyp | GPUs | GPU-Speicher* | Verfügbare vCPUs | Verfügbarer Speicher | Unterstützung lokaler SSDs |
---|---|---|---|---|---|---|
NVIDIA T4 | N1-Maschinenserie mit Ausnahme von N1 mit gemeinsam genutztem Kern | 1 GPU | 16 GB GDDR6 | 1–48 vCPUs | 1–312 GB | Ja |
2 GPUs | 32 GB GDDR6 | 1–48 vCPUs | 1–312 GB | Ja | ||
4 GPUs | 64 GB GDDR6 | 1–96 vCPUs | 1–624 GB | Ja |
*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
NVIDIA P4-GPUs
Für P4-GPUs wird die lokale SSD nur in ausgewählten Regionen unterstützt. Siehe Verfügbarkeit lokaler SSDs nach GPU-Regionen und -Zone.
GPU-Modell | Maschinentyp | GPUs | GPU-Speicher* | Verfügbare vCPUs | Verfügbarer Speicher | Unterstützung lokaler SSDs |
---|---|---|---|---|---|---|
NVIDIA P4 | N1-Maschinenserie mit Ausnahme von N1 mit gemeinsam genutztem Kern | 1 GPU | 8 GB GDDR5 | 1–24 vCPUs | 1–156 GB | Ja |
2 GPUs | 16 GB GDDR5 | 1–48 vCPUs | 1–312 GB | Ja | ||
4 GPUs | 32 GB GDDR5 | 1–96 vCPUs | 1–624 GB | Ja |
*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
NVIDIA V100-GPUs
Bei V100-GPUs wird die lokale SSD nur in ausgewählten Regionen unterstützt. Weitere Informationen finden Sie unter Verfügbarkeit lokaler SSDs nach GPU-Regionen und -Zone.
GPU-Modell | Maschinentyp | GPUs | GPU-Speicher* | Verfügbare vCPUs | Verfügbarer Speicher | Unterstützung lokaler SSDs |
---|---|---|---|---|---|---|
NVIDIA V100 | N1-Maschinenserie mit Ausnahme von N1 mit gemeinsam genutztem Kern | 1 GPU | 16 GB HBM2 | 1–12 vCPUs | 1–78 GB | Ja |
2 GPUs | 32 GB HBM2 | 1–24 vCPUs | 1–156 GB | Ja | ||
4 GPUs | 64 GB HBM2 | 1–48 vCPUs | 1–312 GB | Ja | ||
8 GPUs | 128 GB HBM2 | 1–96 vCPUs | 1–624 GB | Ja |
*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
NVIDIA P100-GPUs
Bei einigen P100-GPUs hängen die maximale CPU-Anzahl und der maximale Arbeitsspeicher, die für einige Konfigurationen verfügbar sind, von der Zone ab, in der die GPU-Ressource ausgeführt wird.
GPU-Modell | Maschinentyp | GPUs | GPU-Speicher* | Verfügbare vCPUs | Verfügbarer Speicher | Unterstützung lokaler SSDs |
---|---|---|---|---|---|---|
NVIDIA P100 | N1-Maschinenserie mit Ausnahme von N1 mit gemeinsam genutztem Kern | 1 GPU | 16 GB HBM2 | 1–16 vCPUs | 1–104 GB | Ja |
2 GPUs | 32 GB HBM2 | 1–32 vCPUs | 1–208 GB | Ja | ||
4 GPUs | 64 GB HBM2 | 1–64 vCPUs 1–96 vCPUs |
1–208 GB 1–624 GB |
Ja |
*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
NVIDIA K80-GPUs
NVIDIA K80-Karten beinhalten jeweils zwei GPUs. Die Preise für K80-GPUs richten sich nach der einzelnen GPU, nicht nach der Karte.
GPU-Modell | Maschinentyp | GPUs | GPU-Speicher* | Verfügbare vCPUs | Verfügbarer Speicher | Unterstützung lokaler SSDs |
---|---|---|---|---|---|---|
NVIDIA K80 | N1-Maschinenserie mit Ausnahme von N1 mit gemeinsam genutztem Kern | 1 GPU | 12 GB GDDR5 | 1–8 vCPUs | 1–52 GB | Ja |
2 GPUs | 24 GB GDDR5 | 1–16 vCPUs | 1–104 GB | Ja | ||
4 GPUs | 48 GB GDDR5 | 1–32 vCPUs | 1–208 GB | Ja | ||
8 GPUs | 96 GB GDDR5 | 1–64 vCPUs | 1–416 GB 1–208 GB |
Ja |
*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
Virtuelle NVIDIA RTX-Workstations (vWS) für Grafikarbeitslasten
Wenn Sie grafikintensive Arbeitslasten haben, z. B. 3D-Visualisierung, können Sie virtuelle Workstations erstellen, die NVIDIA RTX Virtual Workstations (vWS) (ehemals NVIDIA GRID) verwenden. Wenn Sie eine virtuelle Workstation erstellen, wird Ihrer VM automatisch eine Lizenz für NVIDIA RTX Virtual Workstation (vWS) hinzugefügt.
Informationen zu Preisen für virtuelle Workstations finden Sie auf der Seite „GPU-Preise”.
Für Grafikarbeitslasten sind virtuelle RTX-Workstation-Modelle (vWS) von NVIDIA in den folgenden Phasen verfügbar:
- Virtuelle Workstations NVIDIA L4:
nvidia-l4-vws
: allgemein verfügbar - Virtuelle Workstations NVIDIA T4:
nvidia-tesla-t4-vws
: allgemein verfügbar - Virtuelle Workstations NVIDIA P100:
nvidia-tesla-p100-vws
: allgemein verfügbar - Virtuelle Workstations NVIDIA P4:
nvidia-tesla-p4-vws
: allgemein verfügbar
NVIDIA L4 vWS GPUS
GPU-Modell | Maschinentyp | GPUs | GPU-Speicher | vCPU | Standardarbeitsspeicher | Benutzerdefinierter Arbeitsspeicherbereich | Maximale Größe lokaler SSDs |
---|---|---|---|---|---|---|---|
NVIDIA L4 Virtual Workstation | g2-standard-4 |
1 GPU | 24 GB GDDR6 | 4 vCPUs | 16 GB | 16–32 GB | 375 GB |
g2-standard-8 |
1 GPU | 24 GB GDDR6 | 8 vCPUs | 32 GB | 32–54 GB | 375 GB | |
g2-standard-12 |
1 GPU | 24 GB GDDR6 | 12 vCPUs | 48 GB | 48–54 GB | 375 GB | |
g2-standard-16 |
1 GPU | 24 GB GDDR6 | 16 vCPUs | 64 GB | 54–64 GB | 375 GB | |
g2-standard-24 |
2 GPUs | 48 GB GDDR6 | 24 vCPUs | 96 GB | 96–108 GB | 750 GB | |
g2-standard-32 |
1 GPU | 24 GB GDDR6 | 32 vCPUs | 128 GB | 96–128 GB | 375 GB | |
g2-standard-48 |
4 GPUs | 96 GB GDDR6 | 48 vCPUs | 192 GB | 192–216 GB | 1.500 GB | |
g2-standard-96 |
8 GPUs | 192 GB GDDR6 | 96 vCPUs | 384 GB | 384–432 GB | 3000 GB |
*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
NVIDIA T4 vWS GPUs
GPU-Modell | Maschinentyp | GPUs | GPU-Speicher* | Verfügbare vCPUs | Verfügbarer Speicher | Unterstützung lokaler SSDs |
---|---|---|---|---|---|---|
NVIDIA T4 Virtual Workstation | N1-Maschinenserie mit Ausnahme von N1 mit gemeinsam genutztem Kern | 1 GPU | 16 GB GDDR6 | 1–48 vCPUs | 1–312 GB | Ja |
2 GPUs | 32 GB GDDR6 | 1–48 vCPUs | 1–312 GB | Ja | ||
4 GPUs | 64 GB GDDR6 | 1–96 vCPUs | 1–624 GB | Ja |
*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
NVIDIA P4 vWS GPUs
Für P4-GPUs wird die lokale SSD nur in ausgewählten Regionen unterstützt. Siehe Verfügbarkeit lokaler SSDs nach GPU-Regionen und -Zone.
GPU-Modell | Maschinentyp | GPUs | GPU-Speicher* | Verfügbare vCPUs | Verfügbarer Speicher | Unterstützung lokaler SSDs |
---|---|---|---|---|---|---|
NVIDIA P4 Virtual Workstation | N1-Maschinenserie mit Ausnahme von N1 mit gemeinsam genutztem Kern | 1 GPU | 8 GB GDDR5 | 1–16 vCPUs | 1–156 GB | Ja |
2 GPUs | 16 GB GDDR5 | 1–48 vCPUs | 1–312 GB | Ja | ||
4 GPUs | 32 GB GDDR5 | 1–96 vCPUs | 1–624 GB | Ja |
*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
NVIDIA P100 vWS GPUs
GPU-Modell | Maschinentyp | GPUs | GPU-Speicher* | Verfügbare vCPUs | Verfügbarer Speicher | Unterstützung lokaler SSDs |
---|---|---|---|---|---|---|
NVIDIA P100 Virtual Workstation | N1-Maschinenserie mit Ausnahme von N1 mit gemeinsam genutztem Kern | 1 GPU | 16 GB HBM2 | 1–16 vCPUs | 1–104 GB | Ja |
2 GPUs | 32 GB HBM2 | 1–32 vCPUs | 1–208 GB | Ja | ||
4 GPUs | 64 GB HBM2 | 1–64 vCPUs 1–96 vCPUs |
1–208 GB 1–624 GB |
Ja |
*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
Allgemeine Vergleichstabelle
In der folgenden Tabelle werden die GPU-Arbeitsspeichergröße, die Feature-Verfügbarkeit und die idealen Arbeitslasttypen verschiedener GPU-Modelle beschrieben, die in Compute Engine verfügbar sind.
GPU-Modell | Arbeitsspeicher | Interconnect | Unterstützung für NVIDIA RTX Virtual Workstation (vWS) | Geeignete Anwendungsfälle |
---|---|---|---|---|
H100 80GB | 80 GB HBM3 @ 3,35 TB/s | NVLink Full Mesh @ 900 GB/s | Große Modelle mit riesigen Datentabellen für ML-Training, Inferenz, HPC, BERT und DLRM | |
A100 80GB | 80 GB HBM2e @ 1,9 TB/s | NVLink Full Mesh @ 600 GB/s | Große Modelle mit riesigen Datentabellen für ML-Training, Inferenz, HPC, BERT und DLRM | |
A100 40GB | 40 GB HBM2 @ 1,6 TB/s | NVLink Full Mesh @ 600 GB/s | ML-Training, Inferenz, HPC | |
L4 | 24 GB GDDR6 @ 300 GB/s | – | ML-Inferenz, Training, Remote-Workstations zur Visualisierung, Videotranscodierung, HPC | |
T4 | 16 GB GDDR6 @ 320 GB/s | – | ML-Inferenz, Training, Remote-Workstations zur Visualisierung, Videotranscodierung | |
V100 | 16 GB HBM2 @ 900 Gbit/s | NVLink Ring @ 300 GB/s | ML-Training, Inferenz, HPC | |
P4 | 8 GB GDDR5 @ 192 GB/s | – | Remote-Workstations zur Visualisierung, ML-Inferenz und Videotranscodierung | |
P100 | 16 GB HBM2 @ 732 GB/s | – | ML-Training, Inferenz, HPC, Remote-Workstations zur Visualisierung | |
K80EOL | 12 GB GDDR5 @ 240 GB/s | – | ML-Inferenz, Training, HPC |
Informationen zum Vergleichen der GPU-Preise für die verschiedenen GPU-Modelle und -Regionen, die in Compute Engine verfügbar sind, finden Sie unter GPU-Preise.
Leistungsvergleichsdiagramm
In der folgenden Tabelle werden die Leistungsspezifikationen der verschiedenen GPU-Modelle beschrieben, die in Compute Engine verfügbar sind.
Rechenleistung
GPU-Modell | FP64 | FP32 | FP16 | INT8 |
---|---|---|---|---|
H100 80GB | 34 TFLOPS | 67 TFLOPS | ||
A100 80GB | 9,7 TFLOPS | 19,5 TFLOPS | ||
A100 40GB | 9,7 TFLOPS | 19,5 TFLOPS | ||
L4 | 0,5 TFLOPS* | 30,3 TFLOPS | ||
T4 | 0,25 TFLOPS* | 8,1 TFLOPS | ||
V100 | 7,8 TFLOPS | 15,7 TFLOPS | ||
P4 | 0,2 TFLOPS* | 5,5 TFLOPS | 22 TOPS† | |
P100 | 4,7 TFLOPS | 9,3 TFLOPS | 18,7 TFLOPS | |
K80EOL | 1,46 TFLOPS | 4,37 TFLOPS |
* Damit der FP64-Code ordnungsgemäß funktioniert, ist in der T4-, L4- und P4-GPU-Architektur eine geringe Anzahl von FP64-Hardwareeinheiten enthalten.
†TeraOperations pro Sekunde.
Tensor-Kernleistung
GPU-Modell | FP64 | TF32 | Mixed Precision FP16/FP32 | INT8 | INT4 | FP8 |
---|---|---|---|---|---|---|
H100 80GB | 67 TFLOPS | 989 TFLOPS† | 1.979 TFLOPS*, † | 3.958 TOPS† | 3,958 TFLOPS† | |
A100 80GB | 19,5 TFLOPS | 156 TFLOPS | 312 TFLOPS* | 624 TOPS | 1248 TOPS | |
A100 40GB | 19,5 TFLOPS | 156 TFLOPS | 312 TFLOPS* | 624 TOPS | 1248 TOPS | |
L4 | 120 TFLOPS† | 242 TFLOPS*, † | 485 TOPS† | 485 TFLOPS† | ||
T4 | 65 TFLOPS | 130 TOPS | 260 TOPS | |||
V100 | 125 TFLOPS | |||||
P4 | ||||||
P100 | ||||||
K80EOL |
*Für das Mixed Precision Training unterstützen NVIDIA H100, A100 und L4-GPUs auch den Datentyp bfloat16
.
†Für H100- und L4-GPUs wird strukturelle dünne Besetzung unterstützt, mit der Sie den Leistungswert verdoppeln können. Die angezeigten Werte sind sparsam. Die Spezifikationen liegen um eine Hälfte ohne dünne Besetzung.
Nächste Schritte
- Weitere Informationen zu GPUs in Compute Engine finden Sie unter GPUs.
- Verfügbarkeit von GPU-Regionen und -Zonen prüfen
- GPU-Preisübersicht