Cloud GPUs
Leistungsfähige GPUs in Google Cloud für Machine Learning, wissenschaftliches Computing und generative KI.
-
Beschleunigung von Rechenjobs wie generativer KI, 3D-Visualisierung und HPC
-
Eine breite Auswahl von GPUs für unterschiedliche Leistungs- und Preisanforderungen
-
Flexible Preise und Maschinenanpassungen zur Optimierung für Arbeitslasten
Wichtige Features
Wichtige Features
Verschiedene GPU-Typen
NVIDIA-GPUs H100, L4, P100, P4, T4, V100 und A100 bieten eine Reihe von Rechenoptionen, um Ihre Arbeitslasten bei unterschiedlichsten Kosten und Leistungsanforderungen abzudecken.
Flexible Leistung
Stimmen Sie den Prozessor, den Arbeitsspeicher, das Hochleistungslaufwerk und bis zu acht GPUs pro Instanz optimal auf die jeweilige Arbeitslast ab. Dank sekundengenauer Abrechnung zahlen Sie nur für das, was Sie tatsächlich nutzen.
Alle Vorteile von Google Cloud
Sie können GPU-Arbeitslasten auf der Google Cloud ausführen, wo Sie Zugriff auf branchenführende Speicher-, Netzwerk- und Datenanalysetechnologien haben.
Das ist neu
Das ist neu
Melden Sie sich für die Google Cloud-Newsletter an. So werden Sie regelmäßig über Produktneuigkeiten, Veranstaltungen, Sonderangebote und weitere aktuelle Themen informiert.
Dokumentation
Dokumentation
GPUs in der Compute Engine
In der Compute Engine können Sie Ihre VM-Instanzen mit GPUs erweitern. Hier erfahren Sie, wie Sie GPUs einsetzen und welche GPU-Hardware verfügbar ist.
GPUs in der Compute Engine hinzufügen oder entfernen
Hier erfahren Sie, wie Sie in einer Compute Engine-VM GPUs hinzufügen oder entfernen.
GPU-Treiber installieren
In dieser Übersicht werden Möglichkeiten zur Installation von NVIDIA-eigenen Treibern für Instanzen mit einer oder mehreren GPUs erläutert.
GPUs in der Google Kubernetes Engine
Hier erfahren Sie, wie Sie GPU-Hardwarebeschleuniger an den Cluster-Knoten der Google Kubernetes Engine verwenden.
GPUs zum Trainieren von Modellen in der Cloud verwenden
Beschleunigen Sie das Training zahlreicher Deep-Learning-Modelle, zum Beispiel für Bildklassifizierung, Videoanalyse oder Natural Language Processing.
GPUs an Dataproc-Cluster anhängen
Hängen Sie GPUs an Master- und Worker-Knoten der Compute Engine in einem Dataproc-Cluster an, um Arbeitslasten wie Machine Learning und Datenverarbeitung zu beschleunigen.
Preise
Preise
Informationen zu den Preisen für die verschiedenen GPU-Typen und Regionen in der Compute Engine finden Sie in der Preisübersicht für GPUs.