GPU-Maschinentypen


Sie können GPUs in Compute Engine verwenden, um bestimmte Arbeitslasten (z. B. maschinelles Lernen und Datenverarbeitung) auf Ihren VMs zu beschleunigen. Zur Verwendung von GPUs können Sie entweder eine beschleunigungsoptimierte VM mit angehängten GPUs bereitstellen oder GPUs an eine N1-VM für allgemeine Zwecke anhängen.

GPUs werden für Ihre VMs von Compute Engine im Passthrough-Modus bereitgestellt, sodass Ihre VMs direkte Kontrolle über die GPUs und den zugehörigen Arbeitsspeicher haben.

Weitere Informationen zu GPUs in Compute Engine finden Sie unter GPUs.

Wenn Sie grafikintensive Arbeitslasten haben, z. B. 3D-Visualisierung, 3D-Rendering oder virtuelle Anwendungen, können Sie virtuelle NVIDIA RTX-Workstations verwenden (früher als NVIDIA GRID bezeichnet).

Dieses Dokument bietet eine Übersicht über die verschiedenen GPU-VMs, die in Compute Engine verfügbar sind.

Hinweis: Informationen zu den verfügbaren Regionen und Zonen für GPUs in Compute Engine finden Sie unter Verfügbarkeit von GPU-Regionen und -Zonen.

GPUs für Computing-Arbeitslasten

Für Compute-Arbeitslasten stehen GPU-Modelle in folgenden Phasen zur Verfügung:

  • A3-Maschinenserie
    • A3 Mega: NVIDIA H100 80GB Mega: nvidia-h100-mega-80gb: Allgemein verfügbar
    • A3 Standard: NVIDIA H100 80GB: nvidia-h100-80gb: Allgemein verfügbar
  • G2-Maschinenserie
    • NVIDIA L4: nvidia-l4: Allgemein verfügbar
  • A2-Maschinenserie
    • A2 Ultra: NVIDIA A100 80GB: nvidia-a100-80gb: Allgemein verfügbar
    • A2 Standard: NVIDIA A100 40GB: nvidia-tesla-a100: Allgemein verfügbar
  • N1-Maschinenserie
    • NVIDIA T4: nvidia-tesla-t4: Allgemein verfügbar
    • NVIDIA V100: nvidia-tesla-v100: Allgemein verfügbar
    • NVIDIA P100: nvidia-tesla-p100: Allgemein verfügbar
    • NVIDIA P4: nvidia-tesla-p4: Allgemein verfügbar

A3-Maschinenserie

Um NVIDIA H100 80GB-GPUs auszuführen, müssen Sie eine beschleunigungsoptimierte A3-Maschine verwenden. Jeder A3-Maschinentyp hat eine feste GPU-Anzahl, eine feste Zahl an vCPUs und eine vorgegebene Speichergröße.

A3-Maschinenserien sind in zwei Typen verfügbar:

  • A3 Mega: Bei diesen Maschinentypen sind H100 Mega-GPUs mit 80 GB und eine lokale SSD verbunden, bei einer maximalen Netzwerkbandbreite von 1.800 Gbit/s.
  • A3 Standard: Bei diesen Maschinentypen sind H100-GPUs mit 80 GB und eine lokale SSD verbunden, bei einer maximalen Netzwerkbandbreite von 1.000 Gbit/s.
Beschleunigertyp Maschinentyp GPU-Anzahl GPU-Arbeitsspeicher*
(GB HBM3)
vCPU Anzahl VM-Arbeitsspeicher (GB) Angehängte lokale SSD (GiB) Maximale Netzwerkbandbreite (Gbit/s)
VM GPU-Cluster
nvidia-h100-mega-80gb a3-megagpu-8g 8 640 208 1.872 6.000 200 1.600
nvidia-h100-80gb a3-highgpu-8g 8 640 208 1.872 6.000 200 800

*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Er ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.

G2-Maschinenserie

Wenn Sie NVIDIA L4-GPUs verwenden möchten, müssen Sie eine beschleunigungsoptimierte G2-Maschine bereitstellen.

Jeder G2-Maschinentyp hat eine feste Anzahl von NVIDIA L4-GPUs und vCPUs. Jeder G2-Maschinentyp hat auch einen Standardarbeitsspeicher und einen benutzerdefinierten Arbeitsspeicherbereich. Der benutzerdefinierte Arbeitsspeicherbereich definiert die Größe des Arbeitsspeichers, den Sie Ihrer VM für jeden Maschinentyp zuweisen können. Sie können Ihren benutzerdefinierten Arbeitsspeicher während der VM-Erstellung angeben.

Beschleunigertyp Maschinentyp GPU-Anzahl GPU-Arbeitsspeicher* (GB GDDR6) vCPU Anzahl Standard-VM-Arbeitsspeicher (GB) Benutzerdefinierter VM-Arbeitsspeicherbereich (GB) Maximal unterstützte lokale SSD (GiB)
nvidia-tesla-l4 oder
nvidia-tesla-l4-vws
g2-standard-4 1 24 4 16 16 bis 32 375
g2-standard-8 1 24 8 32 32 bis 54 375
g2-standard-12 1 24 12 48 48 bis 54 375
g2-standard-16 1 24 16 64 54 bis 64 375
g2-standard-24 2 48 24 96 96 bis 108 750
g2-standard-32 1 24 32 128 96 bis 128 375
g2-standard-48 4 96 48 192 192 bis 216 1.500
g2-standard-96 8 192 96 384 384 bis 432 3.000

*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Er ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.

A2-Maschinenserie

Wenn Sie NVIDIA A100-GPUs in Google Cloud verwenden möchten, müssen Sie eine beschleunigungsoptimierte A2-Maschine bereitstellen. Jeder A2-Maschinentyp hat eine feste GPU-Anzahl, eine Anzahl von vCPUs und eine vorgegebene Speichergröße.

A2-Maschinenserien sind in zwei Typen verfügbar:

  • A2 Ultra: Bei diesen Maschinentypen sind A100-GPUs mit 80 GB und eine lokale SSD angehängt.
  • A2 Standard: An diese Maschinentypen sind A100-GPUs mit 40 GB angehängt.

A2-Ultra

Beschleunigertyp Maschinentyp GPU-Anzahl GPU-Arbeitsspeicher* (GB HBM2e) vCPU Anzahl VM-Arbeitsspeicher (GB) Angehängte lokale SSD (GiB)
nvidia-a100-80gb a2-ultragpu-1g 1 80 12 170 375
a2-ultragpu-2g 2 160 24 340 750
a2-ultragpu-4g 4 320 48 680 1.500
a2-ultragpu-8g 8 640 96 1.360 3.000

A2-Standard

Beschleunigertyp Maschinentyp GPU-Anzahl GPU-Arbeitsspeicher* (GB HBM2) vCPU Anzahl VM-Arbeitsspeicher (GB) Unterstützung lokaler SSDs
nvidia-tesla-a100 a2-highgpu-1g 1 40 12 85 Ja
a2-highgpu-2g 2 80 24 170 Ja
a2-highgpu-4g 4 160 48 340 Ja
a2-highgpu-8g 8 320 96 680 Ja
a2-megagpu-16g 16 640 96 1.360 Ja

*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Er ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.

N1-Maschinenserie

Sie können die folgenden GPU-Modelle an N1-Maschinentypen anhängen, mit Ausnahme des Maschinentyps N1 mit gemeinsam genutztem Kern.

Für N1 VMs mit einer geringeren Anzahl von GPUs ist eine Höchstanzahl an vCPUs vorgegeben. Im Allgemeinen ermöglicht es Ihnen eine höhere Anzahl an GPUs, VM-Instanzen mit mehr vCPUs und mehr Arbeitsspeicher zu erstellen.

N1+T4-GPUs

Sie können NVIDIA T4-GPUs mit den folgenden VM-Konfigurationen an N1-VMs für allgemeine Zwecke anhängen.

Beschleunigertyp GPU-Anzahl GPU-Arbeitsspeicher* (GB GDDR6) vCPU Anzahl VM-Arbeitsspeicher (GB) Unterstützung lokaler SSDs
nvidia-tesla-t4 oder
nvidia-tesla-t4-vws
1 16 1 bis 48 1 bis 312 Ja
2 32 1 bis 48 1 bis 312 Ja
4 64 1 bis 96 1 bis 624 Ja

*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Er ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.

N1+P4-GPUs

Sie können NVIDIA P4-GPUs mit den folgenden VM-Konfigurationen an N1-VMs für allgemeine Zwecke anhängen.

Beschleunigertyp GPU-Anzahl GPU-Arbeitsspeicher* (GB GDDR5) vCPU Anzahl VM-Arbeitsspeicher (GB) Unterstützung lokaler SSDs
nvidia-tesla-p4 oder
nvidia-tesla-p4-vws
1 8 1 bis 24 1 bis 156 Ja
2 16 1 bis 48 1 bis 312 Ja
4 32 1 bis 96 1 bis 624 Ja

*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Er ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.

Für VMs mit angehängten NVIDIA P4-GPUs werden lokale SSD-Laufwerke nur in den Zonen us-central1-c und northamerica-northeast1-b unterstützt.

N1+V100-GPUs

Sie können NVIDIA V100-GPUs mit den folgenden VM-Konfigurationen an N1-VMs für allgemeine Zwecke anhängen.

Beschleunigertyp GPU-Anzahl GPU-Arbeitsspeicher* (GB HBM2) vCPU Anzahl VM-Arbeitsspeicher (GB) Unterstützung lokaler SSDs
nvidia-tesla-v100 1 16 1 bis 12 1 bis 78 Ja
2 32 1 bis 24 1 bis 156 Ja
4 64 1 bis 48 1 bis 312 Ja
8 128 1 bis 96 1 bis 624 Ja

*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Er ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.

Für VMs mit angehängten NVIDIA V100-GPUs werden lokale SSD-Laufwerke in us-east1-c nicht unterstützt.

N1+P100-GPUs

Sie können NVIDIA P100-GPUs mit den folgenden VM-Konfigurationen an N1-VMs für allgemeine Zwecke anhängen.

Bei einigen NVIDIA P100-GPUs hängen die maximale CPU-Anzahl und der maximale Arbeitsspeicher, die für einige Konfigurationen verfügbar sind, von der Zone ab, in der die GPU-Ressource ausgeführt wird.

Beschleunigertyp GPU-Anzahl GPU-Arbeitsspeicher* (GB HBM2) vCPU Anzahl VM-Arbeitsspeicher (GB) Unterstützung lokaler SSDs
nvidia-tesla-p100 oder
nvidia-tesla-p100-vws
1 16 1 bis 16 1 bis 104 Ja
2 32 1 bis 32 1 bis 208 Ja
4 64

1 bis 64
(us-east1-c, europe-west1-d, europe-west1-b)

1 bis 96
(alle P100-Zonen)

1 bis 208
(us-east1-c, europe-west1-d, europe-west1-b)

1 bis 624
(alle P100-Zonen)

Ja

*GPU-Arbeitsspeicher ist der Speicher, der auf einem GPU-Gerät verfügbar ist und zum temporären Speichern von Daten verwendet werden kann. Er ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.

Virtuelle NVIDIA RTX-Workstations (vWS) für Grafikarbeitslasten

Wenn Sie grafikintensive Arbeitslasten haben, z. B. 3D-Visualisierung, können Sie virtuelle Workstations erstellen, die NVIDIA RTX Virtual Workstations (vWS) (ehemals NVIDIA GRID) verwenden. Wenn Sie eine virtuelle Workstation erstellen, wird Ihrer VM automatisch eine Lizenz für NVIDIA RTX Virtual Workstation (vWS) hinzugefügt.

Informationen zu Preisen für virtuelle Workstations finden Sie auf der Seite „GPU-Preise”.

Für Grafikarbeitslasten sind virtuelle RTX-Workstation-Modelle (vWS) von NVIDIA verfügbar:

  • G2-Maschinenserie: Bei G2-Maschinentypen können Sie NVIDIA L4 Virtual Workstations (vWS) aktivieren: nvidia-l4-vws

  • N1-Maschinenserie: Bei N1-Maschinentypen können Sie die folgenden virtuellen Workstations aktivieren:

    • Virtuelle NVIDIA T4-Workstations: nvidia-tesla-t4-vws
    • Virtuelle NVIDIA P100-Workstations: nvidia-tesla-p100-vws
    • Virtuelle NVIDIA P4-Workstations: nvidia-tesla-p4-vws

Allgemeine Vergleichstabelle

In der folgenden Tabelle werden die GPU-Arbeitsspeichergröße, die Feature-Verfügbarkeit und die idealen Arbeitslasttypen verschiedener GPU-Modelle beschrieben, die in Compute Engine verfügbar sind.

GPU-Modell GPU-Speicher Interconnect Unterstützung für NVIDIA RTX Virtual Workstation (vWS) Geeignete Anwendungsfälle
H100 80GB 80 GB HBM3 @ 3,35 TB/s NVLink Full Mesh @ 900 GB/s Große Modelle mit riesigen Datentabellen für ML-Training, Inferenz, HPC, BERT und DLRM
A100 80GB 80 GB HBM2e @ 1,9 TB/s NVLink Full Mesh @ 600 GB/s Große Modelle mit riesigen Datentabellen für ML-Training, Inferenz, HPC, BERT und DLRM
A100 40GB 40 GB HBM2 @ 1,6 TB/s NVLink Full Mesh @ 600 GB/s ML-Training, Inferenz, HPC
L4 24 GB GDDR6 @ 300 GB/s ML-Inferenz, Training, Remote-Workstations zur Visualisierung, Videotranscodierung, HPC
T4 16 GB GDDR6 @ 320 GB/s ML-Inferenz, Training, Remote-Workstations zur Visualisierung, Videotranscodierung
V100 16 GB HBM2 @ 900 Gbit/s NVLink Ring @ 300 GB/s ML-Training, Inferenz, HPC
P4 8 GB GDDR5 @ 192 GB/s Remote-Workstations zur Visualisierung, ML-Inferenz und Videotranscodierung
P100 16 GB HBM2 @ 732 GB/s ML-Training, Inferenz, HPC, Remote-Workstations zur Visualisierung

Informationen zum Vergleichen der GPU-Preise für die verschiedenen GPU-Modelle und -Regionen, die in Compute Engine verfügbar sind, finden Sie unter GPU-Preise.

Leistungsvergleichsdiagramm

In der folgenden Tabelle werden die Leistungsspezifikationen der verschiedenen GPU-Modelle beschrieben, die in Compute Engine verfügbar sind.

Rechenleistung

GPU-Modell FP64 FP32 FP16 INT8
H100 80GB 34 TFLOPS 67 TFLOPS
A100 80GB 9,7 TFLOPS 19,5 TFLOPS
A100 40GB 9,7 TFLOPS 19,5 TFLOPS
L4 0,5 TFLOPS* 30,3 TFLOPS
T4 0,25 TFLOPS* 8,1 TFLOPS
V100 7,8 TFLOPS 15,7 TFLOPS
P4 0,2 TFLOPS* 5,5 TFLOPS 22 TOPS
P100 4,7 TFLOPS 9,3 TFLOPS 18,7 TFLOPS

* Damit der FP64-Code ordnungsgemäß funktioniert, ist in der T4-, L4- und P4-GPU-Architektur eine geringe Anzahl von FP64-Hardwareeinheiten enthalten.

TeraOperations pro Sekunde.

Tensor-Kernleistung

GPU-Modell FP64 TF32 Mixed Precision FP16/FP32 INT8 INT4 FP8
H100 80GB 67 TFLOPS 989 TFLOPS 1.979 TFLOPS*, † 3.958 TOPS 3,958 TFLOPS
A100 80GB 19,5 TFLOPS 156 TFLOPS 312 TFLOPS* 624 TOPS 1248 TOPS
A100 40GB 19,5 TFLOPS 156 TFLOPS 312 TFLOPS* 624 TOPS 1248 TOPS
L4 120 TFLOPS 242 TFLOPS*, † 485 TOPS 485 TFLOPS
T4 65 TFLOPS 130 TOPS 260 TOPS
V100 125 TFLOPS
P4
P100

*Für das Mixed Precision Training unterstützen NVIDIA H100, A100 und L4-GPUs auch den Datentyp bfloat16.

Für H100- und L4-GPUs wird strukturelle dünne Besetzung unterstützt, mit der Sie den Leistungswert verdoppeln können. Die angezeigten Werte sind sparsam. Die Spezifikationen liegen um eine Hälfte ohne dünne Besetzung.

Nächste Schritte