Cloud TPU

ML-Modelle schneller als je zuvor trainieren und ausführen

Mit der Google Cloud KI Unternehmen fördern

Mit der Google Cloud KI Unternehmen fördern

Das maschinelle Lernen (ML) hat in der Wirtschaft und Forschung Durchbrüche ermöglicht – von der Netzwerksicherheit bis hin zu medizinischen Diagnosen. Wir haben die Tensor Processing Unit (TPU) entwickelt, damit ähnlich weitreichende Fortschritte für jeden realisierbar sind. Die Cloud TPU ist eine speziell entwickelte anwendungsspezifische integrierte Schaltung (Application-Specific Integrated Circuit, ASIC) für ML-Arbeitslasten, auf der Google-Produkte wie Übersetzer, Fotos, die Google-Suche, Assistant und Gmail basieren. Im Folgenden erfahren Sie, wie Sie mit der TPU und maschinellem Lernen besonders bei umfangreichen Projekten den Erfolg Ihres Unternehmens deutlich steigern.

Demo ansehen

Sie möchten mehr darüber erfahren, wie die Cloud TPU genau auf die ML-Anwendungen unserer Kunden abgestimmt wurde?
Dann sehen Sie sich die Demo an oder lesen Sie den Blog.
Demo ansehen

ML-Leistung und -Benchmarks

ML-Leistung und -Benchmarks

Weitere Informationen über das Abschneiden von Cloud TPU im Vergleich zu anderen Beschleunigern finden Sie im Blog oder in den MLPerf-Benchmark-Ergebnissen.

Vorteile

Für KI in Google Cloud entwickelt

Für KI in Google Cloud entwickelt

Cloud TPU wurde für hochmoderne Modelle des maschinellen Lernens in Verbindung mit KI-Diensten in Google Cloud entwickelt. Das eigens entwickelte Hochgeschwindigkeitsnetzwerk bietet über 100 PetaFLOPS Leistung in einem einzelnen Pod – ausreichend Rechenleistung, um Ihr Unternehmen zu transformieren oder den nächsten Durchbruch in der Forschung zu erzielen.

ML-Lösungen schneller iterieren

ML-Lösungen schneller iterieren

Das Training von Modellen für maschinelles Lernen ist mit dem Kompilieren von Code vergleichbar: Die Modelle müssen häufig aktualisiert werden, was so effizient wie möglich geschehen sollte. Wenn Anwendungen erstellt, bereitgestellt und optimiert werden, müssen die Modelle immer wieder neu trainiert werden. Dank der robusten Leistung und geringen Kosten eignet sich Cloud TPU sehr gut für ML-Teams, die schnelle und häufige Iterationen ihrer Lösungen anstreben.

Bewährte Modelle auf dem neuesten Stand der Technik

Bewährte Modelle auf dem neuesten Stand der Technik

Sie können eigene ML-Lösungen für viele reale Anwendungsfälle erstellen. Sie brauchen nur ein von Google optimiertes Referenzmodell herunterzuladen und dieses mit Ihren Daten zu trainieren.

Cloud TPU-Angebot

Cloud TPU v2

Cloud TPU v2

180 TeraFLOPS
64 GB High Bandwidth Memory (HBM)
Cloud TPU v3

Cloud TPU v3

420 TeraFLOPS
128 GB HBM
Cloud TPU v2 Pod Beta

Cloud TPU v2 Pod

11,5 PetaFLOPS
4 TB HBM
Ringförmiges 2D-Mesh-Netzwerk
Cloud TPU v3 Pod Beta

Cloud TPU v3 Pod

Über 100 PetaFLOPS
32 TB HBM
Ringförmiges 2D-Mesh-Netzwerk

Cloud TPU-Features

Modellbibliothek

Sie können sofort loslegen. Nutzen Sie dazu einfach auf unsere stetig wachsende Bibliothek optimierter Modelle für Cloud TPU. Sie bieten optimierte Leistung, Treffsicherheit und Qualität für Bildklassifizierung, Objekterkennung, Sprachmodellierung, Spracherkennung und mehr.

Cloud TPUs mit kundenspezifischen Maschinentypen verbinden

Sie können die Cloud TPUs mit den kundenspezifischen VM-Typen von Deep Learning VM Image in AI Platform verbinden, um so für Ihre Arbeitslasten eine optimale Balance zwischen Prozessorgeschwindigkeit, Arbeitsspeicher und leistungsfähigen Speicherressourcen herzustellen.

Vollständig auf die Google Cloud Platform abgestimmt

Cloud TPUs sowie Daten- und Analysedienste von Google Cloud sind vollständig auf andere Google Cloud Platform-Produkte wie Google Kubernetes Engine (GKE) abgestimmt. Wenn Sie also ML-Arbeitslasten auf Cloud TPUs ausführen, profitieren Sie von den branchenführenden Speicher-, Netzwerk- und Datenanalysetechnologien der GCP.

Cloud TPUs auf Abruf

Sparen Sie Geld und verwenden Sie Cloud TPUs auf Abruf für fehlertolerante ML-Arbeitslasten wie zum Beispiel lange Trainingsläufe mit Prüfpunkten oder Batchvorhersagen für große Datasets. Cloud TPUs auf Abruf sind 70 % günstiger als On-Demand-Instanzen. Damit wird ML erschwinglicher als je zuvor, von Ihren ersten Experimenten bis hin zu umfangreichen Hyperparameter-Suchen.

Open AI Logo: Recursion Pharmaceuticals Logo: Lyft Symbol: eBay
Logo: Max Kelsen Logo: Anadarka Logo: Netmarble Logo: Wellio

Preise

Es fallen Gebühren für die Verwendung von Cloud TPUs auf Abruf und on demand (nicht auf Abruf) an, die zum Trainieren von ML-Modellen verwendet werden. Ausführliche Preisinformationen finden Sie in der Preisübersicht.

Preise für einzelne Cloud TPU-Geräte

Die folgende Tabelle enthält die Preise für die Nutzung eines einzelnen Cloud TPU-Geräts nach Region.

Version On demand Auf Abruf
Cloud TPU v2 4,50 $/TPU-Stunde 1,35 $/TPU-Stunde
Cloud TPU v3 8,00 $/TPU-Stunde 2,40 $/TPU-Stunde

Cloud TPU Pod-Preise

Die folgende Tabelle enthält die Preise für die Nutzung von Cloud TPU Pod-Slices.

Cloud TPU v2 Pod Kennenlernpreis pro Stunde Preis bei Nutzungszusicherung 1 Jahr (37 % Rabatt) Preis bei Nutzungszusicherung 3 Jahre (55 % Rabatt)
Pod-Slice mit 32 Kernen 24 $ 132.451 $ 283.824 $
Pod-Slice mit 128 Kernen 96 $ 529.805 $ 1.135.296 $
Pod-Slice mit 256 Kernen 192 $ 1.059.610 $ 2.270.592 $
Pod-Slice mit 512 Kernen 384 $ 2.119.219 $ 4.541.184 $
Cloud TPU v3 Pod Kennenlernpreis pro Stunde Preis bei Nutzungszusicherung 1 Jahr (37 % Rabatt) Preis bei Nutzungszusicherung 3 Jahre (55 % Rabatt)
Pod-Slice mit 32 Kernen 32 $ 176.601 $ 378.432 $

Wenn Sie eine Cloud TPU Pod-Konfiguration oder einen Preis für größere Cloud TPU v3 Pod-Slices wünschen, kontaktieren Sie einen Vertriebsmitarbeiter.

Ressourcen

KI-Produkte von Google Cloud entsprechen den hier aufgeführten SLA-Richtlinien. Sie bieten eventuell von anderen Google Cloud-Diensten abweichende Latenz- oder Verfügbarkeitsgarantien.