Hier erfahren Sie mehr über die globale generative KI mit NVIDIA GPUs in Google Cloud. Sehen Sie sich ausgewählte Google Cloud-Inhalte von NVIDIA GTC 2024 an.

NVIDIA und Google Cloud

NVIDIA und Google Cloud bieten beschleunigungsoptimierte Lösungen für anspruchsvollste Arbeitslasten, darunter maschinelles Lernen, Hochleistungs-Computing sowie Datenanalyse-, Grafik- und Spielearbeitslasten.

Logos: Nvidia und Google Cloud

Vorteile

Das Potenzial von NVIDIA-beschleunigtem Computing in Google Cloud

Höhere Leistung für verschiedene Arbeitslasten

Mit den neuesten NVIDIA-GPUs in Google Cloud können Sie Compute Engine-Instanzen ganz einfach mit NVIDIA H100, A100, L4, T4, P100, P4 und V100 bereitstellen, um ein breites Spektrum anspruchsvoller Arbeitslasten zu beschleunigen.

Reduzierte Kosten durch sekundengenaue Abrechnung

Dank der sekundengenauen Abrechnung von Google Cloud bezahlen Sie nur für das, was Sie auch tatsächlich nutzen, und erhalten automatisch einen Rabatt von bis zu 30 % pro Monat. Sparen Sie bei den Vorabkosten und profitieren Sie von derselben Verfügbarkeit und skalierbaren Leistung.

Optimierte Arbeitslasten durch benutzerdefinierte Maschinenkonfigurationen

Die Arbeitslasten lassen sich durch eine präzise Konfiguration der Instanz optimieren. Statt die Arbeitslasten an die engen Grenzen der Systemkonfiguration anzupassen, wählen Sie genau den Prozessor-Multiplikator, Speicher und NVIDIA-GPU-Prozessor, den Sie benötigen.

Wichtige Features

NVIDIA-Technologien in Google Cloud

A3-VMs mit NVIDIA H100 Tensor Core-GPUs

A3-VMs mit NVIDIA H100 Tensor Core-GPUs wurden speziell für das Training und die Bewältigung anspruchsvoller Arbeitslasten für generative KI und LLMs entwickelt. Die Kombination von NVIDIA-GPUs mit den führenden Infrastrukturtechnologien von Google Cloud sorgt für enorme Skalierbarkeit und Leistung und bietet fortschrittliche Supercomputing-Funktionen.

Weitere Informationen

A2-VMs mit NVIDIA A100® Tensor Core-GPUs

Die beschleunigungsoptimierten A2-VMs basieren auf der NVIDIA Ampere Tensor Core A100-GPU. Jede A100-GPU bietet eine bis zu 20-mal höhere Rechenleistung als die vorherige Generation. Diese VMs wurden für KI, Datenanalysen und Hochleistungs-Computing entwickelt, um auch die größten Herausforderungen im Computing-Bereich zu bewältigen.

Weitere Informationen

G2-VMs mit NVIDIA L4 Tensor Core-GPUs

G2 war die erste Cloud-VM der Branche mit der neu angekündigten NVIDIA L4 Tensor Core GPU und wurde für große KI-Inferenzarbeitslasten wie Generative AI entwickelt. G2 bietet eine hochmoderne Leistung pro Dollar für Arbeitslasten mit KI-Inferenz. Als universelle GPU bietet G2 erhebliche Leistungsverbesserungen bei HPC-, Grafik- und Arbeitslasten zur Videotranscodierung.

Weitere Informationen

Mit Google Kubernetes Engine automatisch skalieren

Mit Google Kubernetes Engine (GKE) können Sie bei Bedarf nahtlos Cluster mit NVIDIA-GPUs erstellen, Load-Balancing verwenden und die Betriebskosten minimieren, indem GPU-Ressourcen automatisch hoch- oder herunterskaliert werden. Da in NVIDIA A100-GPUs Multi-Instanz-GPUs (MIGs) unterstützt werden, kann GKE jetzt GPU-Beschleunigung in der richtigen Größe mit einem höheren Detaillierungsgrad für KI-Inferenzarbeitslasten mit mehreren Nutzern bereitstellen.

NVIDIA CloudXR™ mit virtuellen RTX-Workstations

NVIDIA CloudXR, eine bahnbrechende Innovation auf der Grundlage von NVIDIA RTX™-Technologie, ermöglicht die Nutzung von hochwertigem XR über den Google Cloud Marketplace mit NVIDIA RTX Virtual Workstation als VM-Image (VMI). Nutzer können einfach immersive Umgebungen einrichten, skalieren und nutzen sowie XR-Workflows aus der Cloud streamen.

Startbereit? Kontakt

Dokumentation

Technische Ressourcen zum Bereitstellen von NVIDIA-Technologien in Google Cloud

Google Cloud Basics

GPUs in Compute Engine

In der Compute Engine können Sie Ihre VM-Instanzen mit GPUs erweitern. Hier erfahren Sie, wie Sie GPUs einsetzen und welche GPU-Hardware verfügbar ist.
Google Cloud Basics

GPUs zum Trainieren von Modellen in der Cloud verwenden

Beschleunigen Sie das Training zahlreicher Deep-Learning-Modelle, zum Beispiel für Bildklassifizierung, Videoanalyse oder Natural Language Processing.

Tutorial

GPUs in der Google Kubernetes Engine

Hier erfahren Sie, wie Sie GPU-Hardwarebeschleuniger an den Cluster-Knoten der Google Kubernetes Engine verwenden.
Google Cloud Basics

GPUs an Dataproc-Cluster anhängen

Hängen Sie GPUs an Master- und Worker-Knoten der Compute Engine in einem Dataproc-Cluster an, um Arbeitslasten wie Machine Learning und Datenverarbeitung zu beschleunigen.

Suchen Sie nach etwas anderem?

Gleich loslegen

Welche Herausforderung wollen Sie meistern? Ein Google Cloud-Experte unterstützt Sie gern dabei, die beste Lösung zu finden.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Console
Google Cloud