GPUs


Sie können Ihrer VM-Instanz Grafikprozessoren (GPUs) hinzufügen, um bestimmte Arbeitslasten in Compute Engine zu beschleunigen.

In diesem Dokument werden die Features und Einschränkungen von GPUs beschrieben, die in Compute Engine ausgeführt werden.

GPUs und Maschinenserien

GPUs werden für die N1-Maschinenserie für allgemeine Zwecke und für die beschleunigungsoptimierten Maschinenserien (A3, A2 und G2) unterstützt. Bei VMs, die N1-Maschinentypen verwenden, hängen Sie die GPU während oder nach der VM-Erstellung an die VM an. Bei VMs, die A2- oder G2-Maschinentypen verwenden, werden die GPUs beim Erstellen der VM automatisch angehängt. GPUs können nicht mit anderen Maschinenserien verwendet werden.

Beschleunigungsoptimierte Maschinenserie

An jeden Beschleunigungsoptimierten Maschinentyp ist ein bestimmtes Modell von NVIDIA-GPUs angehängt.

  • Für A3-Beschleunigeroptimierte Maschinentypen sind NVIDIA H100-80-GB-GPUs angehängt.
  • Bei beschleunigungsoptimierten A2-Maschinentypen sind NVIDIA A100-GPUs angehängt. Diese sind in den Optionen A100 mit 40 GB sowie A100 mit 80 GB verfügbar.
  • Bei beschleunigungsoptimierten G2-Maschinentypen sind NVIDIA L4-GPUs angehängt.

Weitere Informationen finden Sie unter Beschleunigungsoptimierte Maschinenserie.

N1-Maschinenserie für allgemeine Zwecke

Für alle anderen GPU-Typen können die meisten N1-Maschinentypen, mit Ausnahme des gemeinsam genutzten N1-Kerns, verwendet werden.

Für diese Maschinenserie können Sie entweder vordefinierte oder benutzerdefinierte Maschinentypen verwenden.

GPUs auf präemptiven Instanzen

Sie können für VM-Instanzen auf Abruf GPUs hinzufügen oder entfernen und dabei von niedrigeren Preisen für GPUs auf Abruf profitieren. Zu präemptiven Instanzen hinzugefügte GPUs funktionieren wie normale GPUs, bleiben jedoch nur für die Lebensdauer der Instanz bestehen. Für Instanzen auf Abruf mit GPUs gilt derselbe Prozess für vorzeitiges Beenden wie für alle Instanzen auf Abruf.

Fordern Sie ein dediziertes Preemptible GPU-Kontingent an, das für GPUs auf Instanzen auf Abruf verwendet werden soll. Weitere Informationen finden Sie unter Kontingente für VM-Instanzen auf Abruf.

Bei Wartungsereignissen werden präemptive Instanzen mit GPUs standardmäßig beendet und können nicht automatisch neu gestartet werden. Wenn Sie die Instanzen neu erstellen möchten, nachdem sie beendet wurden, verwenden Sie eine verwaltete Instanzgruppe. Verwaltete Instanzgruppen erstellen Ihre Instanzen neu, sofern die vCPU-, Speicher- und GPU-Ressourcen verfügbar sind.

Wenn Sie eine Warnung erhalten möchten, bevor die Instanz vorzeitig beendet wird, oder die Instanz so konfigurieren möchten, dass sie nach einer Wartung automatisch neu gestartet wird, benutzen Sie eine Standardinstanz mit einer GPU. Für Standardinstanzen mit GPUs wird von Google eine Stunde vor der vorzeitigen Beendigung eine Warnung ausgegeben.

Compute Engine berechnet Ihnen keine GPUs, wenn ihre Instanzen in der ersten Minute nach dem Start der Ausführung wieder beendet werden.

Eine Anleitung zum automatischen Neustart einer Standardinstanz finden Sie unter Aktualisierungsoptionen für eine Instanz.

Informationen zum Erstellen von präemptiven Instanzen finden Sie unter VM mit angehängten GPUs erstellen.

GPUs und Confidential VMs

Sie können keine Confidential VM-Instanzen an GPUs anhängen. Weitere Informationen zu Confidential VMs finden Sie unter Confidential Computing – Konzepte.

GPUs und Hostwartung

VMs mit angehängten GPUs können keine Live-Migration ausführen und müssen vor einer Hostwartung beendet werden. Diese Wartungen werden normalerweise alle zwei Wochen ausgeführt. Bei Bedarf können Wartungen auch häufiger durchgeführt werden. Weitere Informationen zum Umgang mit Wartungsereignissen finden Sie unter GPU-Hostwartungen

GPUs und Blockspeicher

Sie können VMs, an die GPUs angehängt sind, lokale SSDs hinzufügen. Eine Liste der lokalen SSD-Unterstützung nach GPU-Typen und -Regionen finden Sie unter Lokale SSD-Verfügbarkeit nach GPU-Regionen und -Zonen.

GPU-Preise

Die meisten VMs mit einer angehängten GPU erhalten ähnliche Rabatte für kontinuierliche Nutzung wie vCPUs. Wenn Sie eine GPU für eine virtuelle Workstation auswählen, wird Ihrer VM eine NVIDIA RTX-Lizenz für virtuelle Workstation hinzugefügt.

Informationen zu stündlichen und monatlichen Preisen für GPUs finden Sie auf der Seite „GPU-Preise”.

GPUs mit Rabatten für zugesicherte Nutzung reservieren

Informationen zum Reservieren von GPU-Ressourcen in einer bestimmten Zone finden Sie unter Zonale Compute Engine-Ressourcen reservieren

Wenn Sie Rabatte für zugesicherte Nutzung für GPUs in einer bestimmten Zone erhalten möchten, müssen Sie ressourcenbasierte Zusicherungen für die GPUs erwerben und auch Reservierungen anhängen, die übereinstimmende GPUs an Ihre Zusicherungen angeben. Weitere Informationen finden Sie unter Reservierungen an ressourcenbasierte Zusicherungen anhängen.

GPU-Einschränkungen und Beschränkungen

Für VMs mit angehängten GPUs gelten die folgenden Beschränkungen und Einschränkungen:

  • Wenn Sie NVIDIA K80-GPUs mit Ihren VMs verwenden möchten, können die VMs die Intel Skylake- oder späteren CPU-Plattformen nicht verwenden.

  • GPUs werden derzeit nur mit dem N1-Maschinentyp für allgemeine Zwecke und mit beschleunigungsoptimierten A3-, A2- und G2-Maschinentypen unterstützt.

  • Zum Schutz der Systeme und Nutzer von Compute Engine haben neue Projekte ein globales GPU-Kontingent, das die Gesamtzahl der GPUs begrenzt, die Sie in einer unterstützten Zone erstellen können. Wenn Sie ein GPU-Kontingent anfordern, müssen Sie ein Kontingent für die GPU-Modelle, die Sie in den einzelnen Regionen erstellen möchten, sowie ein zusätzliches globales Kontingent für die Gesamtzahl der GPUs aller Typen in allen Zonen anfordern.

  • Für VMs mit einer oder mehreren GPUs gilt eine maximale Anzahl an vCPUs für jede einzelne GPU, die Sie der Instanz hinzufügen. So kann beispielsweise jeder Maschinentyp einer Instanz pro NVIDIA K80-GPU bis zu acht vCPUs und maximal 52 GB Arbeitsspeicher haben. Die verfügbaren vCPU- und Speicherbereiche für verschiedene GPU-Konfigurationen können Sie der GPU-Liste entnehmen.

  • GPUs benötigen Gerätetreiber, um ordnungsgemäß zu funktionieren. NVIDIA-GPUs, die auf Compute Engine ausgeführt werden, müssen eine Mindesttreiberversion verwenden. Weitere Informationen zu Treiberversionen finden Sie unter Erforderliche NVIDIA-Treiberversionen.

  • VMs mit einem bestimmten angehängten GPU-Modell unterliegen nur dann dem Compute Engine-SLA, wenn dieses hinzugefügte GPU-Modell allgemein verfügbar ist und in mehreren Zonen in derselben Region unterstützt wird. Das Compute Engine-SLA deckt keine GPU-Modelle in den folgenden Zonen ab:

    • NVIDIA H100 80 GB
      • us-east5-a
    • NVIDIA L4:
      • europe-west3-b
      • europe-west6-b
    • NVIDIA A100 80 GB:
      • asia-southeast1-c
      • us-east4-c
      • us-east5-b
    • NVIDIA A100 40 GB:
      • us-east1-b
      • us-west1-b
      • us-west3-b
      • us-west4-b
    • NVIDIA T4:
      • europe-west3-b
      • southamerica-east1-c
      • us-west3-b
    • NVIDIA V100:
      • asia-east1-c
      • us-east1-c
    • NVIDIA P100:
      • australia-southeast1-c
      • europe-west4-a
    • NVIDIA K80:
      • us-west1-b
  • Compute Engine unterstützt die Ausführung von 1 gleichzeitigen Nutzer pro GPU.

Nächste Schritte