Cloud-GPUs

Leistungsfähige GPUs in Google Cloud für maschinelles Lernen, wissenschaftliches Rechnen und 3D-Visualisierung

Google Cloud kostenlos testen
  • action/check_circle_24px Erstellt mit Sketch

    Beschleunigung von Rechenjobs wie maschinelles Lernen und HPC

  • action/check_circle_24px Erstellt mit Sketch

    Eine breite Auswahl von GPUs für unterschiedliche Leistungs- und Preisanforderungen

  • action/check_circle_24px Erstellt mit Sketch

    Flexible Preise und Maschinenanpassungen zur Optimierung für Arbeitslasten

Wichtige Features

Verschiedene GPU-Typen

NVIDIA K80-, P100-, P4-, T4- und V100-GPUs bieten eine Reihe von Rechenoptionen, um Ihre Arbeitslasten im erforderlichen Preis- und Leistungssegment abzudecken.

Flexible Leistung

Stimmen Sie den Prozessor, den Arbeitsspeicher, das Hochleistungslaufwerk und bis zu acht GPUs pro Instanz optimal auf die jeweilige Arbeitslast ab. Dank sekundengenauer Abrechnung zahlen Sie nur für das, was Sie tatsächlich nutzen.

Alle Vorteile von Google Cloud

Sie können GPU-Arbeitslasten auf der Google Cloud Platform ausführen, wo Sie Zugriff auf branchenführende Speicher-, Netzwerk- und Datenanalysetechnologien haben.

Alle Features ansehen

Dokumentation

Grundlagen zu Google Cloud
GPUs in Compute Engine

Compute Engine bietet GPUs, die Sie Ihren VM-Instanzen hinzufügen können. Hier erfahren Sie, wie Sie GPUs nutzen können und welche Arten von GPU-Hardware verfügbar sind.

Tutorial
GPUs in Compute Engine hinzufügen oder entfernen

Hier erfahren Sie, wie Sie einer Compute Engine-VM GPUs hinzufügen oder diese entfernen können.

Tutorial
GPU-Treiber installieren

In dieser Übersicht werden Möglichkeiten zur Installation von NVIDIA-eigenen Treibern für Instanzen mit einer oder mehreren GPUs erläutert.

Tutorial
GPUs in Google Kubernetes Engine

Hier erfahren Sie, wie Sie GPU-Hardwarebeschleuniger in den Knoten Ihrer Google Kubernetes Engine-Cluster verwenden.

Grundlagen zu Google Cloud
GPUs zum Trainieren von Modellen in der Cloud verwenden

Beschleunigen Sie das Training zahlreicher Deep Learning-Modelle, beispielsweise Modelle für die Bildklassifizierung, Videoanalyse und Verarbeitung natürlicher Sprache.

Grundlagen zu Google Cloud
GPUs an Dataproc-Cluster anhängen

Hängen Sie GPUs an die Compute Engine-Master- und -Worker-Knoten in einem Dataproc-Cluster an, um bestimmte Arbeitslasten wie maschinelles Lernen und die Datenverarbeitung zu beschleunigen.

Preise

Informationen zu den Preisen für die verschiedenen GPU-Typen und Regionen in Compute Engine finden Sie in der Preisübersicht für GPUs.