Cloud TPU

Modelle für maschinelles Lernen schneller als je zuvor trainieren und ausführen

Mit der KI von Google Cloud schaffen Unternehmen mehr

Mit der KI von Google Cloud schaffen Unternehmen mehr

Dank maschinellem Lernen (ML) konnten in der Geschäftswelt und der Forschung Durchbrüche erzielt werden – von Netzwerksicherheit bis hin zu medizinischen Diagnosen. Wir haben die Tensor Processing Unit (TPU) entwickelt, damit jeder Durchbrüche dieser Art erzielen kann. Die Cloud TPU ist eine speziell entwickelte anwendungsspezifische integrierte Schaltung (Application-Specific Integrated Circuit, ASIC) für ML-Arbeitslasten, auf der Google-Produkte wie Übersetzer, Fotos, Google-Suche, Assistant und Gmail basieren. Im Folgenden erfahren Sie, wie Sie mit TPUs und maschinellem Lernen insbesondere bei umfangreichen Projekten den Erfolg Ihres Unternehmens steigern.

Demo ausprobieren

Sie möchten mehr darüber erfahren, wie die Cloud TPU genau auf die ML-Anwendungen unserer Kunden abgestimmt wurde?
Dann probieren Sie die Demo aus oder lesen Sie den entsprechenden Blogartikel.
Demo ausprobieren

ML-Leistung und -Benchmarks

ML-Leistung und -Benchmarks

Wenn Sie erfahren möchten, wie Cloud TPU im Vergleich zu anderen Beschleunigern abschneidet, können Sie den Blogartikel zum Thema lesen oder sich die MLPerf-Benchmark-Ergebnisse ansehen.

Vorteile

Für KI in Google Cloud entwickelt

Für KI in Google Cloud entwickelt

Cloud TPU wurde für hochmoderne Modelle des maschinellen Lernens in Verbindung mit KI-Diensten in Google Cloud entwickelt. Das eigens entwickelte Hochgeschwindigkeitsnetzwerk bietet über 100 PetaFLOPS Leistung in einem einzelnen Pod – ausreichend Rechenleistung, um Ihr Unternehmen zu transformieren oder den nächsten Durchbruch in der Forschung zu erzielen.

ML-Lösungen schneller iterieren

ML-Lösungen schneller iterieren

Das Training von Modellen für maschinelles Lernen ist vergleichbar mit dem Kompilieren von Code: Es muss häufig aktualisiert werden, was so effizient wie möglich geschehen sollte. Wenn Anwendungen erstellt, bereitgestellt und optimiert werden, müssen die Modelle immer wieder neu trainiert werden. Dank der robusten Leistung und geringen Kosten eignet sich Cloud TPU sehr gut für ML-Teams, die schnelle und häufige Iterationen ihrer Lösungen anstreben.

Bewährte Modelle auf dem neuesten Stand der Technik

Bewährte Modelle auf dem neuesten Stand der Technik

Sie können eigene ML-Lösungen für viele reale Anwendungsfälle erstellen. Sie brauchen nur ein von Google optimiertes Referenzmodell herunterzuladen und dieses mit Ihren Daten zu trainieren.

Cloud TPU-Angebot

Cloud TPU v2

Cloud TPU v2

180 TeraFLOPS
64 GB High Bandwidth Memory (HBM)
Cloud TPU v3

Cloud TPU v3

420 TeraFLOPS
128 GB HBM
Cloud TPU v2 Pod Beta

Cloud TPU v2 Pod (Beta)

11,5 PetaFLOPS
4 TB HBM
Ringförmiges 2D-Mesh-Netzwerk
Cloud TPU v3 Pod Beta

Cloud TPU v3 Pod (Beta)

100+ PetaFLOPS
32 TB HBM
Ringförmiges 2D-Mesh-Netzwerk

Vorteile von Cloud TPU

Modellbibliothek

Sie können sofort loslegen. Greifen Sie einfach auf unsere stetig wachsende Bibliothek optimierter Modelle für Cloud TPU zurück. Diese bieten optimierte Leistung, Genauigkeit und Qualität bei der Bildklassifizierung, Objekterkennung, Sprachmodellierung, Spracherkennung und vielem mehr.

Cloud TPUs mit benutzerdefinierten Maschinentypen verbinden

Sie können von benutzerdefinierten VM-Typen der KI-Plattform Deep Learning VM Image eine Verbindung zu Cloud TPUs herstellen, um für Ihre Arbeitslasten eine optimale Balance zwischen Prozessorgeschwindigkeit, Speicher und leistungsfähigen Speicherressourcen herzustellen.

Vollständig auf die Google Cloud Platform abgestimmt

Cloud TPUs sowie Daten- und Analysedienste von Google Cloud sind vollständig auf andere Google Cloud Platform-Produkte wie Google Kubernetes Engine (GKE) abgestimmt. Wenn Sie also ML-Arbeitslasten auf Cloud TPUs ausführen, profitieren Sie von den branchenführenden Speicher-, Netzwerk- und Datenanalysetechnologien der GCP.

Cloud TPUs auf Abruf

Sparen Sie Geld und verwenden Sie Cloud TPUs auf Abruf für fehlertolerante ML-Arbeitslasten wie zum Beispiel lange Trainingsläufe mit Prüfpunkten oder Batchvorhersagen für große Datasets. Cloud TPUs auf Abruf sind 70 % günstiger als On-Demand-Instanzen. Damit wird ML erschwinglicher als je zuvor, von Ihren ersten Experimenten bis hin zu umfangreichen Hyperparameter-Suchen.

Recursion Pharmaceuticals-Logo Lyft-Logo Max Kelsen-Logo eBay-Symbol
Anadarka-Logo Netmarble-Logo Wellio-Logo

Preise

Es fallen Gebühren für die Verwendung von Cloud TPUs auf Abruf und On-demand-Cloud TPUs (nicht auf Abruf) an, die zum Trainieren von ML-Modellen verwendet werden. Ausführliche Preisinformationen finden Sie in der Preisübersicht.

Einzelnes Cloud TPU v2-Gerät – Preise

Die folgende Tabelle enthält die Preise für die Nutzung eines einzelnen Cloud TPU v2-Geräts nach Region.

Cloud TPU v2 4,50 $ pro TPU-Stunde
TPU v2 auf Abruf 1,35 $ pro TPU-Stunde

Einzelnes Cloud TPU v3-Gerät – Preise

Die folgende Tabelle enthält die Preise für die Nutzung eines einzelnen Cloud TPU v3-Geräts nach Region.

Cloud TPU v3 8,00 $ pro TPU-Stunde
TPU v3 auf Abruf 2,40 $ pro TPU-Stunde

Cloud TPU v2 Pod (Beta) – Preise

Die folgende Tabelle enthält die Preise für die Nutzung von Cloud TPU v2 Pod-Segmenten nach Region.

Probierpreis pro Stunde Preis der Zusicherung für 1 Jahr (37 % Rabatt) Preis der Zusicherung für 3 Jahre (55 % Rabatt)
Pod-Segment mit 32 Kernen 24 $ 132.451 $ 283.824 $
Pod-Segment mit 128 Kernen 96 $ 529.805 $ 1.135.296 $
Pod-Segment mit 256 Kernen 192 $ 1.059.610 $ 2.270.592 $
Pod-Segment mit 512 Kernen 384 $ 2.119.219 $ 4.541.184 $

Cloud TPU v3 Pod (Beta) – Preise

Die folgende Tabelle enthält die Preise für die Nutzung von Cloud TPU v3 Pod-Segmenten nach Region.

Probierpreis pro Stunde Preis der Zusicherung für 1 Jahr (37 % Rabatt) Preis der Zusicherung für 3 Jahre (55 % Rabatt)
Pod-Segment mit 32 Kernen 32 $ 176.601 $ 378.432 $

Wenn Sie eine Cloud TPU Pod-Konfiguration oder einen Preis für größere Cloud TPU v3 Pod-Segmente wünschen, kontaktieren Sie einen Vertriebsmitarbeiter.

Ressourcen

Cloud TPU Pods (v2 und v3) befinden sich in der Betaphase. Weitere Informationen zu unseren Markteinführungsphasen finden Sie hier.

Feedback geben zu...