NVIDIA und die Google Cloud Platform

NVIDIA Tesla T4-GPUs sind jetzt auf der Google Cloud Platform verfügbar.
In diesem On-Demand-Webinar erhalten Sie Informationen zu T4-GPUs auf der GCP.

Kontakt

Die Google Cloud Platform ist jetzt mit NVIDIA Tesla K80-, P4-, T4-, P100- und V100-GPUs verfügbar

Ob Klimaprognosen oder neue Medikamente für die Krebstherapie – die Welt steht heute vor großen Herausforderungen, zu deren Lösung enorme Rechenressourcen benötigt werden.

NVIDIA und Google Cloud möchten Sie gemeinsam bei der Bewältigung dieser Herausforderungen unterstützen – und das ohne massive Anfangsinvestitionen und die komplexe Verwaltung der zugrunde liegenden Infrastruktur. Die NVIDIA Tesla K80-, P4-, T4-, P100- und V100-GPUs sind allgemein auf der Google Cloud Platform verfügbar. Mit den NVIDIA GPUs auf der Google Cloud Platform lassen sich Aufgaben wie Deep Learning, Analysen, physische Simulationen, Videotranscodierung und molekulare Modellierung nun innerhalb von Stunden statt Tagen erledigen. Sie können auch virtuelle NVIDIA GRID-Workstations auf der Google Cloud Platform nutzen, um grafikintensive Aufgaben von überall aus schneller durchzuführen.

nvidia

Vorteile der Verwendung von NVIDIA-GPUs auf der Google Cloud Platform

Bessere Leistung für komplexe Rechenvorgänge
Komplexe, rechenintensive Arbeitslasten wie Training und Inferenz für maschinelle Lernmodelle, medizinische Analysen, seismische Untersuchungen, Videotranscodierung, virtuelle Workstations sowie wissenschaftliche Simulationen werden mit größerer Geschwindigkeit durchgeführt. Google Compute Engine-Instanzen lassen sich einfach mit NVIDIA Tesla K80-, P4-, P100-, T4- oder V100-GPUs ausstatten, um besonders komplexe und extrem rechenintensive Arbeitslasten zu bewältigen.
Reduzierte Kosten durch sekundengenaue Abrechnung
Dank der sekundengenauen Abrechnung auf der Google Cloud Platform bezahlen Sie nur das, was Sie auch tatsächlich nutzen, und erhalten automatisch einen Rabatt von bis zu 30 % pro Monat. Größere Anfangsinvestitionen entfallen und Sie profitieren gleichzeitig von der ständigen Verfügbarkeit und skalierbaren Leistung, die Sie von den NVIDIA Tesla-GPUs gewohnt sind.
Optimierte Arbeitslasten durch benutzerdefinierte Maschinenkonfigurationen
Die Arbeitslasten lassen sich durch eine präzise Konfiguration der Instanz optimieren. Statt die Arbeitslasten an die engen Grenzen der Systemkonfiguration anzupassen, wählen Sie genau den Prozessor-Multiplikator, Speicher und NVIDIA-GPU-Prozessor, den Sie benötigen. Sie profitieren auch von GPU-optimierten Containern aus der Container Registry von NVIDIA GPU Cloud, die Ihre DL- und HPC-Arbeitslasten auf der Google Cloud Platform beschleunigen können.
Nahtlose Einbindung in die AI Platform
Bewältigen Sie die täglich anfallenden riesigen Datenmengen, die sich aus Transaktionsdatensätzen, Sensorlogs, Bildern, Videos und anderen Quellen ergeben. Mit den von der NVIDIA-GPU beschleunigten Cloud-Computingressourcen gewinnen Sie aus Ihren Daten nützliche Informationen, ohne sie aus der Cloud verlagern zu müssen. Die NVIDIA Tesla K80-, P4-, P100- und V100-GPUs sind nahtlos in AI Platform eingebunden. Sie reduzieren den Zeitaufwand für das Trainieren von ML-Modellen mit großen Datasets erheblich. Das dabei verwendete TensorFlow-Framework ist eng mit Cloud Dataflow, BigQuery, Cloud Storage und AI Platform Notebooks verknüpft.
Schnelleres ML-Training und effiziente ML-Inferenz
Damit die komplexen Herausforderungen von heute mit ML bewältigt werden können, müssen Deep-Learning-Modelle, deren Komplexität exponentiell angestiegen ist, in einem sinnvollen Zeitraum trainiert werden. NVIDIA Tesla T4- und V100-GPUs verkürzen auf der Google Cloud Platform die Trainingszeit für diese Modelle drastisch, nämlich von Wochen auf wenige Stunden. Darüber hinaus bieten sie einen um eine Größenordnung höheren Durchsatz bei niedriger Latenz und sind dadurch beim Ausführen dieser trainierten Modelle für Inferenz effizienter und somit auch benutzerfreundlicher.
Globale Infrastruktur von Google als Grundlage

Sie haben Zugriff auf die Hardware, die auch Google für die Entwicklung leistungsstarker Deep-Learning-Produkte verwendet. Dabei entfallen die Anfangsinvestitionen und der IT-Arbeitsaufwand für die Verwaltung der eigenen Infrastruktur. NVIDIA Tesla K80-, P4-, P100-, T4- und V100-GPUs auf der Google Cloud Platform sorgen dafür, dass die Hardware der virtuellen Maschine direkt zur Verfügung gestellt wird, um Bare-Metal-Leistung zu ermöglichen.

Virtuelle NVIDIA GRID-Workstations mit Tesla P4-, T4- und P100-GPUs ermöglichen kreativen und technischen Mitarbeitern den Zugriff auf anspruchsvolle Anwendungen aus der Cloud.

Auf der Google Cloud Platform verfügbare NVIDIA-GPUs

NVIDIA TESLA K80-GPUs auf der Google Cloud Platform

NVIDIA Tesla K80 ist in Google Cloud allgemein verfügbar. Der Prozessor senkt den Zeitaufwand für das Modelltraining und die HPC-Kosten drastisch und liefert gleichzeitig herausragende Performance mit weniger, aber leistungsfähigeren Serverinstanzen, die die Leistung von realen Anwendungen um das Fünf- bis Zehnfache steigern.

NVIDIA-GPUs werden bereits von mehr als 550 branchenführenden HPC-Anwendungen unterstützt, dazu gehören die 15 wichtigsten HPC-Anwendungen und alle Deep-Learning-Frameworks. Tesla K80 garantiert die hervorragende Leistung dieser Anwendungen mit Features wie Dual-GPU Design und Dynamic GPU Boost.

Compute Engine mit NVIDIA K80 ausprobieren
NVIDIA Tesla P4- und T4-GPUs auf der Google Cloud Platform

NVIDIA Tesla P4- und T4-GPUs sind jetzt allgemein in Compute Engine verfügbar.

Inferenzplattform

NVIDIA Tesla P4- und T4-GPUs steigern die Effizienz von Scale-out-Servern, auf denen Deep-Learning-Arbeitslasten ausgeführt werden, und ermöglichen reaktionsschnelle KI-basierte Dienste. Die P4- und T4-GPUs sind darauf ausgelegt, die Inferenzlatenz zu verringern und gleichzeitig eine bessere Energieeffizienz zu erreichen. So werden KI-Dienste verfügbar, die zuvor aufgrund von Latenzeinschränkungen unmöglich waren.

Virtuelle Workstations

NVIDIA Tesla P4- und T4-GPUs helfen Designern, Entwicklern, Wissenschaftlern und Grafikern, virtuelle Workstations bereitzustellen, mit denen sie in immersiven, interaktiven und fotorealistischen Umgebungen die größten Herausforderungen bei der Visualisierung bewältigen können. Mit NVIDIA GRID sind die Experten jetzt nicht mehr an ihre Schreibtische gebunden. Sie können von nahezu überall auf praktisch jedem Gerät auf extrem anspruchsvolle professionelle Anwendungen und ihre Daten zugreifen.

Videotranscodierung

NVIDIA Tesla P4 kann bis zu 18 Full-HD-Videostreams in Echtzeit transcodieren und ableiten und T4 bis zu 38 Full-HD-Videostreams. Dies wird durch eine dedizierte hardwarebeschleunigte Decodier-Engine möglich, die parallel zur GPU für Inferenzen arbeitet. Durch die Einbindung von Deep Learning in die Videopipeline können Kunden Nutzern intelligente, innovative Videodienste bieten, die zuvor nicht möglich waren.

NVIDIA P4 mit Compute Engine ausprobieren
NVIDIA TESLA P100-GPUs auf der Google Cloud Platform

NVIDIA Tesla P100 ist allgemein auf der Google Cloud Platform verfügbar.

Unified Supercomputing

Steigert den Durchsatz und spart Kosten für HPC- und ML-Anwendungen. Dank der NVIDIA Pascal-Architektur liefert jede Tesla P100-GPU für HPC- und ML-Arbeitslasten jeweils eine Leistung von 4,7 oder 9,3 TeraFLOPS mit doppelter bzw. einfacher Genauigkeit.

Größere Effizienz mit CoWoS und HBM2

Bis Anwendungen benötigte Daten generiert haben, vergeht oft wesentlich mehr Zeit, als man für die eigentliche Verarbeitung dieser Daten benötigt. Mit dem neuen CoWoS (Chip on Wafer on Substrate) mit HBM2-Technologie sind in der NVIDIA Tesla P100-GPU Computing und Daten im selben Paket integriert, wodurch noch nie dagewesene Rechengeschwindigkeiten erzielt werden. Diese Integration bedeutet für die neue Generation einen Quantensprung in der Anwendungsleistung. Im Vergleich zu Lösungen früherer Generationen ist eine dreimal höhere Speicherbandbreite möglich.

Einfachere parallele Programmierung mit der Page Migration Engine

Mit der Pascal-Architektur wurde die parallele Programmierung um einiges einfacher. Dank der Page Migration Engine können sich Entwickler stärker auf die Optimierung der Rechenleistung konzentrieren und verbringen weniger Zeit mit der Verwaltung von Datenbewegungen. Darüber hinaus können Anwendungen durch Paging des virtuellen Speichers über die physische Speichergröße der GPU hinaus skaliert werden. Die Unified-Memory-Technologie zeigt Entwicklern einen Speicherbereich für die gesamte Instanz an, was zu einer erheblichen Produktivitätssteigerung beiträgt.

NVIDIA P100 mit Compute Engine ausprobieren
NVIDIA TESLA V100-GPUs auf der Google Cloud Platform

NVIDIA Tesla V100-GPUs sind in Compute Engine und Google Kubernetes Engine jetzt allgemein verfügbar.

Extrem anspruchsvolle Arbeitslasten und Branchen erfordern heutzutage äußerst schnelle Hardwarebeschleuniger. Kunden können jetzt bis zu acht NVIDIA Tesla V100-GPUs, 96 vCPUs und 624 GB Systemspeicher in einer einzigen VM auswählen und bis zu 1.000 TeraFLOPS mit unterschiedlicher Hardware-Beschleunigungsleistung erhalten. NVIDIA NVLink-Verbindungen der nächsten Generation bieten eine GPU-zu-GPU-Bandbreite von bis zu 300 GB/s, 9-fach höher als PCIe, was die Leistung bei Deep-Learning- und HPC-Arbeitslasten um bis zu 40 % steigert.

Sehen Sie sich die GPU-Dokumentation an, um über die neuesten Preise und regionalen Verfügbarkeiten für NVIDIA-GPUs auf dem Laufenden zu bleiben.

NVIDIA V100 mit Compute Engine ausprobieren
NVIDIA-GPUs in Google Kubernetes Engine

Die NVIDIA-GPUs sind in Google Kubernetes Engine (GKE) allgemein verfügbar. Mit dem aktuellen GKE-Release können sie in großem Umfang verwendet werden.

Die GPUs in GKE können die Leistung rechenintensiver Anwendungen wie maschinelles Lernen, Bildverarbeitung und Finanzmodellierung mit Turbocharging enorm verbessern. Durch Verpacken Ihrer CUDA-Arbeitslasten in Container profitieren Sie bei Bedarf von der enormen Prozessorleistung der NVIDIA-GPUs in GKE, ohne Hardware oder VMs verwalten zu müssen.

NVIDIA Tesla P4-, V100-, P100- und K80-GPUs sind jetzt allgemein verfügbar.

GPUs in Kubernetes Engine
NVIDIA GPU Cloud und Google Cloud Platform: Die GCP unterstützt NVIDIA GPU Cloud

Die Google Cloud Platform bietet jetzt Unterstützung für NVIDIA GPU Cloud. NVIDIA GPU Cloud (NGC) ermöglicht einfachen Zugriff auf GPU-beschleunigte Softwarecontainer für Deep-Learning-, HPC-Anwendungen und HPC-Visualisierung. NGC-Container sind optimiert und vorab integriert. Sie unterstützen die Ausführung von GPU-beschleunigter Software, die die Potenziale der NVIDIA Tesla V100- und P100-GPUs auf der Google Cloud Platform vollständig nutzt. Durch den einfachen Zugriff auf NVIDIA-GPU-beschleunigte Software und NVIDIA-GPUs kann GPU-optimierte Software auf der Google Cloud Platform ab sofort in Minutenschnelle in Produktionsqualität bereitgestellt werden.

Erste Schritte mit NVIDIA CPU Cloud Image im Google Cloud Platform Marketplace

Zusätzliche Ressourcen