Google Cloud stellt den weltweit öffentlich verfügbaren ML-Hub mit Cloud TPU v4 mit zu 90 % CO2-freier Energie vor. Weitere Informationen.

Cloud TPU

Beschreibung des Videoinhalts

Mit der KI von Google Cloud Unternehmen voranbringen

Das maschinelle Lernen (ML) hat in der Wirtschaft und Forschung Durchbrüche ermöglicht – von der Netzwerksicherheit bis hin zu medizinischen Diagnosen. Wir haben die Tensor Processing Unit (TPU) entwickelt, damit ähnlich weitreichende Fortschritte für jeden realisierbar sind. Die Cloud TPU ist eine speziell entwickelte anwendungsspezifische integrierte Schaltung (Application-Specific Integrated Circuit, ASIC) für ML-Arbeitslasten, auf der Google-Produkte wie Übersetzer, Fotos, die Google-Suche, Assistant und Gmail basieren. Im Folgenden erfahren Sie, wie Sie mit der TPU und maschinellem Lernen besonders bei umfangreichen Projekten den Erfolg Ihres Unternehmens deutlich steigern.
Bild der KI/Cloud TPU-Infrastruktur.

Für KI in Google Cloud entwickelt

Cloud TPU wurde für hochmoderne Modelle des maschinellen Lernens in Verbindung mit KI-Diensten in Google Cloud entwickelt. Das eigens entwickelte Hochgeschwindigkeitsnetzwerk bietet mehr als 100 PetaFLOPS Leistung in einem einzelnen Pod – ausreichend Rechenleistung, um Ihr Unternehmen zu transformieren oder den nächsten Durchbruch in der Forschung zu erzielen.

Bild einer schnellen Iteration

ML-Lösungen schneller iterieren

Das Training von Modellen für maschinelles Lernen ist mit dem Kompilieren von Code vergleichbar: Die Modelle müssen häufig aktualisiert werden, was so effizient wie möglich geschehen sollte. Wenn Anwendungen erstellt, bereitgestellt und optimiert werden, müssen die Modelle immer wieder neu trainiert werden. Dank der robusten Leistung und geringen Kosten eignen sich Cloud TPUs sehr gut für ML-Teams, die schnelle und häufige Iterationen ihrer Lösungen anstreben.

Bewährte Modelle auf dem neuesten Stand der Technik

Sie können eigene ML-Lösungen für viele reale Anwendungsfälle erstellen. Sie brauchen nur ein von Google optimiertes Referenzmodell herunterzuladen und dieses mit Ihren Daten zu trainieren.

Kunden und Partner

„Bei Cohere entwickeln wir moderne NLP-Dienste (Natural Language Processing), die auch APIs für die Sprachgenerierung, -klassifizierung und -suche umfassen. Diese Tools basieren auf einer Reihe von Sprachmodellen, die Cohere auf Cloud TPUs mit JAX komplett neu trainiert. Bei der Umstellung von Cloud TPU v3 Pods auf Cloud TPU v4 Pods konnte die Trainingszeit um 70 % verbessert werden. Dies ermöglicht schnellere Iterationen für unsere Forscher und bessere Ergebnisse für unsere Kunden. Die außergewöhnlich niedrige CO2-Bilanz der Cloud TPU v4 Pods war ein weiterer Schlüsselfaktor für uns.“

Aidan Gomez, CEO und Mitbegründer

Logo: LG AI-Forschungslogo

„Als strategischer Forschungspartner hat LG AI Research vor der Veröffentlichung an den Tests des TPU v4 beteiligt, dem neuesten Machine-Learning-Supercomputer von Google. Dabei wurde LG EXAONE, eine gigantische KI mit 300 Milliarden Parametern trainiert. LG EXAONE verfügt über multimodale Funktionen und wurde mit TPU v4 und einer riesigen Datenmenge (über 600 Milliarden Texten und 250 Millionen Bilder) trainiert, um menschliche Experten in puncto Kommunikation, Produktivität, Kreativität und vielen weiteren Aspekten zu übertreffen. Nicht nur hat die Leistung von TPU v4 andere best-in-class Computing-Architekturen übertroffen, auch der kundenorientierte Support hat unsere Erwartungen weit übertroffen. Wir haben uns sehr über die Zusammenarbeit mit Google gefreut und hoffen die strategische Partnerschaft zu festigen, um unsere letztendliche Vision zu erreichen und durch KI ein besseres Leben zu ermöglichen.“

Kyunghoon Bae, PhD, Chief of LG AI Research

Logo: Salesforce

„Dank des Vorabzugriffs auf TPU v4 konnten wir mit unserem CodeGen-Projekt, einem automatisch regressivem Sprachmodell mit 16 Milliarden Parameter, das einfache englische Aufforderungen in ausführbaren Code umwandelt, Erfolge in der dialogorientierten KI-Programmierung erzielen. Die enorme Größe dieses Modells basiert auf der empirischen Beobachtung, dass die Skalierung der Anzahl von Modellparametern proportional zur Zahl der Trainingsbeispiele die Leistung des Modells stark zu verbessern scheint. Dieses Phänomen wird als Skalierungsgesetz bezeichnet. TPU v4 ist eine hervorragende Plattform für diese Art horizontal skaliertem ML-Training. Dies bietet erhebliche Leistungsvorteile gegenüber anderen vergleichbaren KI-Hardware-Alternativen."

Erik Nijkamp, Research Scientist, Salesforce

Logo: IDC

„Basierend auf unserer aktuellen Umfrage mit 2.000 IT-Entscheidungsträgern haben wir festgestellt, dass unzureichende Infrastrukturfunktionen häufig die Ursache für das Versagen von KI-Projekten sind. Google hat seinen neuen Cluster für maschinelles Lernen in Oklahoma mit neun Exaflops aggregierter Rechenleistung auf den Markt gebracht, um die zunehmende Bedeutung der zweckorientierten KI-Infrastruktur für Unternehmen anzusprechen. Wir sind davon überzeugt, dass dies der größte öffentlich verfügbare ML-Hub ist, bei dem 90 % des Stroms aus CO2-freien Quellen kommt. Dies zeigt Googles kontinuierliches Engagement für innovative KI-Infrastruktur, ohne die Nachhaltigkeit zu vernachlässigen.“

Matt Eastwood, IDC Senior Vice President, Unternehmensinfrastruktur, Cloud, Telekommunikation, Sicherheit, Entwickler, Kanäle und Aktivierung von Technologie

Features

Modellbibliothek

Sie können sofort loslegen. Nutzen Sie dazu einfach unsere stetig wachsende Bibliothek optimierter Modelle für Cloud TPU. Diese bieten optimierte Leistung, Treffsicherheit und Qualität für Bildklassifizierung, Objekterkennung, Sprachmodellierung, Spracherkennung und mehr.

Cloud TPUs mit kundenspezifischen Maschinentypen verbinden

Sie können Cloud TPUs mit kundenspezifischen Deep Learning VM-Imagetypen verbinden, um so für Ihre Arbeitslasten eine optimale Balance zwischen Prozessorgeschwindigkeit, Arbeitsspeicher und leistungsfähigen Speicherressourcen herzustellen.

Vollständige Einbindung in Google Cloud

Cloud TPUs sowie Daten- und Analysedienste von Google Cloud sind vollständig in andere Google Cloud-Produkte wie Google Kubernetes Engine (GKE) eingebunden. Wenn Sie also ML-Arbeitslasten auf Cloud TPUs ausführen, profitieren Sie von den branchenführenden Speicher-, Netzwerk- und Datenanalysetechnologien der GCP.

Cloud TPUs auf Abruf

Sparen Sie Geld und verwenden Sie Cloud TPUs auf Abruf für fehlertolerante ML-Arbeitslasten wie zum Beispiel lange Trainingsläufe mit Prüfpunkten oder Batchvorhersagen für große Datasets. Cloud TPUs auf Abruf sind 70 % günstiger als On-Demand-Instanzen. Damit wird ML erschwinglicher als je zuvor, von Ihren ersten Experimenten bis hin zu umfangreichen Hyperparameter-Suchen.

Gleich loslegen

Profitieren Sie von einem Guthaben über 300 $, um Google Cloud und mehr als 20 Produkte kennenzulernen, die immer verfügbar sind.

Benötigen Sie Hilfe beim Einstieg?
Unterstützung durch Google Cloud-Partner

Gleich loslegen

Starten Sie Ihr nächstes Projekt, nutzen Sie interaktive Anleitungen und verwalten Sie Ihr Konto.

Benötigen Sie Hilfe beim Einstieg?
Unterstützung durch Google Cloud-Partner
Tipps und Best Practices

Cloud KI-Produkte entsprechen den SLA-Richtlinien von Google Cloud. Sie bieten eventuell von anderen Google Cloud-Diensten abweichende Latenz- oder Verfügbarkeitsgarantien.