Hier erfahren Sie mehr über die globale generative KI mit NVIDIA GPUs in Google Cloud. Sehen Sie sich ausgewählte Google Cloud-Inhalte von NVIDIA GTC 2024 an.
NVIDIA und Google Cloud bieten beschleunigungsoptimierte Lösungen für anspruchsvollste Arbeitslasten, darunter maschinelles Lernen, Hochleistungs-Computing sowie Datenanalyse-, Grafik- und Spielearbeitslasten.
Vorteile
Höhere Leistung für verschiedene Arbeitslasten
Mit den neuesten NVIDIA-GPUs in Google Cloud können Sie Compute Engine-Instanzen ganz einfach mit NVIDIA H100, A100, L4, T4, P100, P4 und V100 bereitstellen, um ein breites Spektrum anspruchsvoller Arbeitslasten zu beschleunigen.
Reduzierte Kosten durch sekundengenaue Abrechnung
Dank der sekundengenauen Abrechnung von Google Cloud bezahlen Sie nur für das, was Sie auch tatsächlich nutzen, und erhalten automatisch einen Rabatt von bis zu 30 % pro Monat. Sparen Sie bei den Vorabkosten und profitieren Sie von derselben Verfügbarkeit und skalierbaren Leistung.
Optimierte Arbeitslasten durch benutzerdefinierte Maschinenkonfigurationen
Die Arbeitslasten lassen sich durch eine präzise Konfiguration der Instanz optimieren. Statt die Arbeitslasten an die engen Grenzen der Systemkonfiguration anzupassen, wählen Sie genau den Prozessor-Multiplikator, Speicher und NVIDIA-GPU-Prozessor, den Sie benötigen.
Wichtige Features
A3-VMs mit NVIDIA H100 Tensor Core-GPUs wurden speziell für das Training und die Bewältigung anspruchsvoller Arbeitslasten für generative KI und LLMs entwickelt. Die Kombination von NVIDIA-GPUs mit den führenden Infrastrukturtechnologien von Google Cloud sorgt für enorme Skalierbarkeit und Leistung und bietet fortschrittliche Supercomputing-Funktionen.
Die beschleunigungsoptimierten A2-VMs basieren auf der NVIDIA Ampere Tensor Core A100-GPU. Jede A100-GPU bietet eine bis zu 20-mal höhere Rechenleistung als die vorherige Generation. Diese VMs wurden für KI, Datenanalysen und Hochleistungs-Computing entwickelt, um auch die größten Herausforderungen im Computing-Bereich zu bewältigen.
G2 war die erste Cloud-VM der Branche mit der neu angekündigten NVIDIA L4 Tensor Core GPU und wurde für große KI-Inferenzarbeitslasten wie Generative AI entwickelt. G2 bietet eine hochmoderne Leistung pro Dollar für Arbeitslasten mit KI-Inferenz. Als universelle GPU bietet G2 erhebliche Leistungsverbesserungen bei HPC-, Grafik- und Arbeitslasten zur Videotranscodierung.
Mit Google Kubernetes Engine (GKE) können Sie bei Bedarf nahtlos Cluster mit NVIDIA-GPUs erstellen, Load-Balancing verwenden und die Betriebskosten minimieren, indem GPU-Ressourcen automatisch hoch- oder herunterskaliert werden. Da in NVIDIA A100-GPUs Multi-Instanz-GPUs (MIGs) unterstützt werden, kann GKE jetzt GPU-Beschleunigung in der richtigen Größe mit einem höheren Detaillierungsgrad für KI-Inferenzarbeitslasten mit mehreren Nutzern bereitstellen.
NVIDIA CloudXR, eine bahnbrechende Innovation auf der Grundlage von NVIDIA RTX™-Technologie, ermöglicht die Nutzung von hochwertigem XR über den Google Cloud Marketplace mit NVIDIA RTX Virtual Workstation als VM-Image (VMI). Nutzer können einfach immersive Umgebungen einrichten, skalieren und nutzen sowie XR-Workflows aus der Cloud streamen.
Startbereit? Kontakt
Hier erfahren Sie, wie Google Cloud und NVIDIA Sie bei der Transformation Ihres Unternehmens unterstützen können.
Kunden
Dokumentation
Beschleunigen Sie das Training zahlreicher Deep-Learning-Modelle, zum Beispiel für Bildklassifizierung, Videoanalyse oder Natural Language Processing.
Das ist neu
Welche Herausforderung wollen Sie meistern? Ein Google Cloud-Experte unterstützt Sie gern dabei, die beste Lösung zu finden.