NVIDIA und Google Cloud
NVIDIA und Google Cloud bieten beschleunigungsoptimierte Lösungen für anspruchsvollste Arbeitslasten, darunter maschinelles Lernen, Hochleistungs-Computing sowie Datenanalyse-, Grafik- und Spielearbeitslasten.
Vorteile
Das Potenzial von NVIDIA-beschleunigtem Computing in Google Cloud
Höhere Leistung für verschiedene Arbeitslasten
Mit den neuesten NVIDIA-GPUs in Google Cloud können Sie Compute Engine-Instanzen ganz einfach mit NVIDIA H100, A100, L4, T4, P100, P4 und V100 bereitstellen, um ein breites Spektrum anspruchsvoller Arbeitslasten zu beschleunigen.
Reduzierte Kosten durch sekundengenaue Abrechnung
Dank der sekundengenauen Abrechnung von Google Cloud bezahlen Sie nur für das, was Sie auch tatsächlich nutzen, und erhalten automatisch einen Rabatt von bis zu 30 % pro Monat. Sparen Sie bei den Vorabkosten und profitieren Sie von derselben Verfügbarkeit und skalierbaren Leistung.
Optimierte Arbeitslasten durch benutzerdefinierte Maschinenkonfigurationen
Die Arbeitslasten lassen sich durch eine präzise Konfiguration der Instanz optimieren. Statt die Arbeitslasten an die engen Grenzen der Systemkonfiguration anzupassen, wählen Sie genau den Prozessor-Multiplikator, Speicher und NVIDIA-GPU-Prozessor, den Sie benötigen.
Wichtige Features
NVIDIA-Technologien in Google Cloud
A3-VMs mit NVIDIA H100 Tensor Core-GPUs
A3-VMs basieren auf NVIDIA H100 Tensor Core-GPUs und wurden speziell für das Training und die Bewältigung anspruchsvoller generativer KI-Arbeitslasten und LLMs entwickelt. Die Kombination von NVIDIA-GPUs mit den führenden Infrastrukturtechnologien von Google Cloud sorgt für enorme Skalierbarkeit und Leistung und bietet fortschrittliche Supercomputing-Funktionen.
A2-VMs mit NVIDIA A100® Tensor Core-GPUs
Die beschleunigungsoptimierten A2-VMs basieren auf der NVIDIA Ampere Tensor Core A100-GPU. Jede A100-GPU bietet eine bis zu 20-mal höhere Rechenleistung als die vorherige Generation. Diese VMs wurden für KI, Datenanalysen und Hochleistungs-Computing entwickelt, um auch die größten Herausforderungen im Computing-Bereich zu bewältigen.
G2-VMs mit NVIDIA L4 Tensor Core-GPUs
G2 war die erste Cloud-VM der Branche mit der neu angekündigten NVIDIA L4 Tensor Core GPU und wurde für große KI-Inferenzarbeitslasten wie Generative AI entwickelt. G2 bietet eine hochmoderne Leistung pro Dollar für Arbeitslasten mit KI-Inferenz. Als universelle GPU bietet G2 erhebliche Leistungsverbesserungen bei HPC-, Grafik- und Arbeitslasten zur Videotranscodierung.
Mit Google Kubernetes Engine automatisch skalieren
Mit Google Kubernetes Engine (GKE) können Sie bei Bedarf nahtlos Cluster mit NVIDIA-GPUs erstellen, Load-Balancing verwenden und die Betriebskosten minimieren, indem GPU-Ressourcen automatisch hoch- oder herunterskaliert werden. Da in NVIDIA A100-GPUs Multi-Instanz-GPUs (MIGs) unterstützt werden, kann GKE jetzt GPU-Beschleunigung in der richtigen Größe mit einem höheren Detaillierungsgrad für KI-Inferenzarbeitslasten mit mehreren Nutzern bereitstellen.
NVIDIA CloudXR™ mit virtuellen RTX-Workstations
NVIDIA CloudXR, eine bahnbrechende Innovation auf der Grundlage von NVIDIA RTX™-Technologie, ermöglicht die Nutzung von hochwertigem XR über den Google Cloud Marketplace mit NVIDIA RTX Virtual Workstation als VM-Image (VMI). Nutzer können einfach immersive Umgebungen einrichten, skalieren und nutzen sowie XR-Workflows aus der Cloud streamen.
Kunden
Kunden, die von der NVIDIA-GPU-Beschleunigung in Google Cloud profitieren
Ähnliche Dienste
Google Cloud-Angebote mit NVIDIA-Technologien
Dokumentation
Technische Ressourcen zum Bereitstellen von NVIDIA-Technologien in Google Cloud
GPUs in der Compute Engine
In der Compute Engine können Sie Ihre VM-Instanzen mit GPUs erweitern. Hier erfahren Sie, wie Sie GPUs einsetzen und welche GPU-Hardware verfügbar ist.
GPUs zum Trainieren von Modellen in der Cloud verwenden
Beschleunigen Sie das Training zahlreicher Deep-Learning-Modelle, beispielsweise Modelle für die Bildklassifizierung, Videoanalyse und Verarbeitung natürlicher Sprache.
GPUs in der Google Kubernetes Engine
Hier erfahren Sie, wie Sie GPU-Hardwarebeschleuniger an den Cluster-Knoten der Google Kubernetes Engine verwenden.
GPUs an Dataproc-Cluster anhängen
Hängen Sie GPUs an Master- und Worker-Knoten der Compute Engine in einem Dataproc-Cluster an, um Arbeitslasten wie Machine Learning und Datenverarbeitung zu beschleunigen.
Das ist neu