Cloud TPU

Modelle für maschinelles Lernen schneller als je zuvor trainieren und ausführen.

Dokumentation ansehen Jetzt starten

Schnelleres maschinelles Lernen

Dank maschinellem Lernen (ML) konnten bei zahlreichen Geschäfts- und Forschungsproblemen Durchbrüche erzielt werden. Von einer höheren Netzwerksicherheit bis hin zu genaueren medizinischen Diagnosen hat das maschinelle Lernen vieles ermöglicht. Da das Trainieren und Ausführen von Deep-Learning-Modellen rechenintensiv sein kann, haben wir die Tensor Processing Unit (TPU) entwickelt, ein ASIC speziell für maschinelles Lernen. Sie stellt die Triebfeder einiger unserer wichtigsten Produkte dar, darunterGoogle Übersetzer, Google Fotos, die Google-Suche, Google Assistant und Gmail. Mit Cloud TPU erhalten Unternehmen von überall aus Zugriff auf diese Technologie, um ihre ML-Arbeitslasten in Google Cloud zu beschleunigen.

Für KI in Google Cloud entwickelt

Cloud TPU wurde für hochmoderne Modelle des maschinellen Lernens mit KI-Diensten in Google Cloud entwickelt. Ihre Rechenleistung kann Ihr Unternehmen transformieren oder Ihnen dabei helfen, den nächsten Durchbruch in der Forschung zu erzielen. Mit einem selbst entwickelten Hochgeschwindigkeitsnetzwerk, das die Zusammenarbeit von TPUs an ML-Arbeitslasten ermöglicht, kann Cloud TPU in einem einzelnen Pod bis zu 11,5 PetaFLOPS Leistung bereitstellen.

ML-Lösungen schneller iterieren

Das Training eines Modells für maschinelles Lernen ist vergleichbar mit dem Kompilieren von Code. Während Apps erstellt, bereitgestellt und optimiert werden, müssen die Modelle immer wieder neu trainiert werden. Das Training muss also schnell ablaufen und kostengünstig sein. Leistung und Kosten von Cloud TPU sind perfekt darauf zugeschnitten, ML-Teams eine schnellere Iteration ihrer Lösungen zu ermöglichen.

Bewährte Modelle auf dem neuesten Stand der Technik

Verwenden Sie qualifizierte Referenzmodelle, die in den Bereichen Leistung, Genauigkeit und Qualität dafür optimiert sind, Lösungen für viele reale Anwendungsfälle zu erstellen. Sie müssen nur ein Referenzmodell herunterladen und dieses mit Ihren Daten trainieren.

Cloud TPU-Angebot

Cloud TPU v2
180 TeraFLOPS
64 GB High Bandwidth Memory (HBM)

Cloud TPU v3 Alpha
420 TeraFLOPS
128 GB HBM

Cloud TPU v2 Pod Alpha
11,5 PetaFLOPS
4 TB HBM
Ringförmiges 2D-Mesh-Netzwerk

Vorteile von Cloud TPU

Bewährte Referenzmodelle
Nutzen Sie Referenzmodelle, die sich bei Google bewährt haben und in Bezug auf Leistung, Genauigkeit und Qualität optimiert sind. Sie eignen sich für viele reale Anwendungsfälle bei Objekterkennung, Sprachmodellierung, Sentimentanalyse, Übersetzung, Bildklassifizierung und mehr.
Integriert
Cloud TPUs und die Daten- und Analysedienste von Google Cloud sind voll in andere GCP-Angebote integriert, wodurch Sie auf alle Dienste einheitlich zugreifen können. Wenn Sie ML-Arbeitslasten auf Cloud TPUs ausführen, profitieren Sie von den branchenführenden Speicher-, Netzwerk- und Datenanalysetechnologien der Google Cloud Platform.
Cloud TPUs mit benutzerdefinierten Maschinentypen verbinden
Sie können von benutzerdefinierten VM-Typen eine Verbindung zu Cloud TPUs herstellen, um für Ihre spezifischen Arbeitslasten ein optimales Gleichgewicht zwischen Prozessorgeschwindigkeit, Speicher und leistungsfähigen Speicherressourcen herzustellen.
Präemptive Cloud TPUBETA
Sparen Sie Geld und verwenden Sie präemptive Cloud TPUs für fehlertolerante ML-Arbeitslasten wie zum Beispiel lange Trainingsläufe mit Prüfpunkten oder Batchvorhersagen für große Datensätze. Präemptive Cloud TPUs sind 70 % günstiger als On-Demand-Instanzen. Damit wird alles von Ihren ersten Experimenten bis hin zu umfangreichen Hyperparameter-Suchen erschwinglicher als je zuvor.

"Cloud TPU-Pods haben unseren Ansatz für visuelles Einkaufen revolutioniert, denn sie bringen eine 10-fache Beschleunigung gegenüber unserer vorherigen Infrastruktur. Wir haben früher Monate damit verbracht, ein einziges Bilderkennungsmodell zu trainieren. Heute können wir dagegen auf Cloud TPU-Pods innerhalb weniger Tage viel genauere Modelle trainieren. Außerdem können wir den zusätzlichen Speicher der TPU-Pods nutzen, um mehr Bilder gleichzeitig zu verarbeiten. Diese kurze Bearbeitungszeit ermöglicht es uns, schneller zu iterieren und bringt große Verbesserungen sowohl für Kunden als auch für Verkäufer bei eBay mit sich."

– Larry Colagiovanni VP für New Product Development bei eBay

Die auf dieser Seite erwähnten Produkte sind in der Alpha- oder Betaphase. Weitere Informationen zu unseren Markteinführungsphasen finden Sie hier.

Feedback geben zu...