Cloud TPU

Modelle für maschinelles Lernen schneller als je zuvor trainieren und ausführen

Dokumentation ansehen Jetzt starten

Schnelleres maschinelles Lernen

Dank maschinellem Lernen (ML) konnten bei zahlreichen Geschäfts- und Forschungsproblemen Durchbrüche erzielt werden, von höherer Netzwerksicherheit bis hin zu genaueren medizinischen Diagnosen. Da das Trainieren und Ausführen von Deep-Learning-Modellen rechenintensiv ist, haben wir die Tensor Processing Unit (TPU) entwickelt, einen speziell für maschinelles Lernen entworfenen Chip. Dieser ist die Triebfeder einiger unserer wichtigsten Produkte, darunter Google Übersetzer, Google Fotos, die Google-Suche, Google Assistant und Gmail. Mit Cloud TPU erhalten Unternehmen von überall aus Zugriff auf diese Technologie, um ihre ML-Arbeitslasten in Google Cloud zu beschleunigen.

Für KI in Google Cloud entwickelt

Cloud TPU wurde für hochmoderne Modelle des maschinellen Lernens mit KI-Diensten in Google Cloud entwickelt. Mit dieser Rechenleistung können Sie Ihr Unternehmen transformieren oder den nächsten Durchbruch in der Forschung erzielen. Durch das selbst entwickelte Hochgeschwindigkeitsnetzwerk, das die Zusammenarbeit von TPUs bei ML-Arbeitslasten ermöglicht, kann Cloud TPU in einem einzelnen Pod bis zu 11,5 PetaFLOPS Leistung bereitstellen.

ML-Lösungen schneller iterieren

Das Training eines Modells für maschinelles Lernen ist vergleichbar mit dem Kompilieren von Code. Wenn Apps erstellt, bereitgestellt und optimiert werden, müssen die Modelle immer wieder neu trainiert werden. Das Training muss also schnell ablaufen und kostengünstig sein. Leistung und Kosten von Cloud TPU sind perfekt darauf zugeschnitten, ML-Teams eine schnellere Iteration ihrer Lösungen zu ermöglichen.

Bewährte Modelle auf dem neuesten Stand der Technik

Verwenden Sie qualifizierte Referenzmodelle, die in den Bereichen Leistung, Genauigkeit und Qualität dafür optimiert sind, Lösungen für viele reale Anwendungsfälle zu erstellen. Sie brauchen nur ein Referenzmodell herunterzuladen und dieses mit Ihren Daten zu trainieren.

Cloud TPU-Angebot

Cloud TPU v2
180 TeraFLOPS
64 GB High Bandwidth Memory (HBM)

Cloud TPU v3 Beta
420 TeraFLOPS
128 GB HBM

Cloud TPU v2 Pod Alpha
11,5 PetaFLOPS
4 TB HBM
Ringförmiges 2D-Mesh-Netzwerk

Vorteile von Cloud TPU

Bewährte Referenzmodelle
Nutzen Sie Referenzmodelle, die sich bei Google bewährt haben und in Bezug auf Leistung, Genauigkeit und Qualität optimiert sind. Sie eignen sich für viele reale Anwendungsfälle bei Objekterkennung, Sprachmodellierung, Sentimentanalyse, Übersetzung, Bildklassifizierung und mehr.
Integration
Cloud TPUs und die Daten- und Analysedienste von Google Cloud sind voll in andere GCP-Angebote integriert, wodurch Sie auf alle Dienste einheitlich zugreifen können. Wenn Sie ML-Arbeitslasten auf Cloud TPUs ausführen, profitieren Sie von den branchenführenden Speicher-, Netzwerk- und Datenanalysetechnologien der Google Cloud Platform.
Cloud TPUs mit benutzerdefinierten Maschinentypen verbinden
Sie können von benutzerdefinierten VM-Typen eine Verbindung zu Cloud TPUs herstellen, um für Ihre spezifischen Arbeitslasten ein optimales Gleichgewicht zwischen Prozessorgeschwindigkeit, Speicher und leistungsfähigen Speicherressourcen herzustellen.
Präemptive Cloud TPUs
Sparen Sie Geld und verwenden Sie präemptive Cloud TPUs für fehlertolerante ML-Arbeitslasten wie zum Beispiel lange Trainingsläufe mit Prüfpunkten oder Batchvorhersagen für große Datensätze. Präemptive Cloud TPUs sind 70 % günstiger als On-Demand-Instanzen. Damit wird alles erschwinglicher als je zuvor, von Ihren ersten Experimenten bis hin zu umfangreichen Hyperparameter-Suchen.

"Cloud TPU-Pods haben unseren Ansatz für visuelles Einkaufen revolutioniert, denn sie bringen eine 10-fache Beschleunigung gegenüber unserer vorherigen Infrastruktur. Wir haben früher Monate damit verbracht, ein einziges Bilderkennungsmodell zu trainieren. Heute dagegen können wir auf Cloud TPU-Pods innerhalb weniger Tage viel genauere Modelle trainieren. Außerdem können wir den zusätzlichen Speicher der TPU-Pods nutzen, um mehr Bilder gleichzeitig zu verarbeiten. Diese kurze Bearbeitungszeit ermöglicht es uns, schneller zu iterieren und bringt große Verbesserungen sowohl für Kunden als auch für Verkäufer bei eBay mit sich."

– Larry Colagiovanni VP of New Product Development bei eBay

Die auf dieser Seite erwähnten Produkte sind in der Alpha- oder Betaphase. Weitere Informationen zu unseren Markteinführungsphasen finden Sie hier.

Feedback geben zu...