Cloud TPU

ML-Modelle schneller als je zuvor trainieren und ausführen

Beschreibung des Videoinhalts

Mit der KI von Google Cloud Unternehmen voranbringen

Das maschinelle Lernen (ML) hat in der Wirtschaft und Forschung Durchbrüche ermöglicht – von der Netzwerksicherheit bis hin zu medizinischen Diagnosen. Wir haben die Tensor Processing Unit (TPU) entwickelt, damit ähnlich weitreichende Fortschritte für jeden realisierbar sind. Die Cloud TPU ist eine speziell entwickelte anwendungsspezifische integrierte Schaltung (Application-Specific Integrated Circuit, ASIC) für ML-Arbeitslasten, auf der Google-Produkte wie Übersetzer, Fotos, die Google-Suche, Assistant und Gmail basieren. Im Folgenden erfahren Sie, wie Sie mit der TPU und maschinellem Lernen besonders bei umfangreichen Projekten den Erfolg Ihres Unternehmens deutlich steigern.

Für KI in Google Cloud entwickelt

Cloud TPU wurde für hochmoderne Modelle des maschinellen Lernens in Verbindung mit KI-Diensten in Google Cloud entwickelt. Das eigens entwickelte Hochgeschwindigkeitsnetzwerk bietet mehr als 100 PetaFLOPS Leistung in einem einzelnen Pod – ausreichend Rechenleistung, um Ihr Unternehmen zu transformieren oder den nächsten Durchbruch in der Forschung zu erzielen.

ML-Lösungen schneller iterieren

Das Training von Modellen für maschinelles Lernen ist mit dem Kompilieren von Code vergleichbar: Die Modelle müssen häufig aktualisiert werden, was so effizient wie möglich geschehen sollte. Wenn Anwendungen erstellt, bereitgestellt und optimiert werden, müssen die Modelle immer wieder neu trainiert werden. Dank der robusten Leistung und geringen Kosten eignen sich Cloud TPUs sehr gut für ML-Teams, die schnelle und häufige Iterationen ihrer Lösungen anstreben.

Bewährte Modelle auf dem neuesten Stand der Technik

Sie können eigene ML-Lösungen für viele reale Anwendungsfälle erstellen. Sie brauchen nur ein von Google optimiertes Referenzmodell herunterzuladen und dieses mit Ihren Daten zu trainieren.

Demo ansehen

Sie möchten mehr darüber erfahren, wie die Cloud TPU genau auf die ML-Anwendungen unserer Kunden abgestimmt wurde?

Dann sehen Sie sich die Demo an oder lesen Sie den Blog.

ML-Leistung und -Benchmarks

Weitere Informationen darüber, wie Cloud TPU im Vergleich zu anderen Beschleunigern abschneidet, finden Sie im Blog zu diesem Thema sowie in den MLPerf-Benchmark-Ergebnissen.

Cloud TPU-Angebot

Cloud TPU-Features

Modellbibliothek

Sie können sofort loslegen. Nutzen Sie dazu einfach unsere stetig wachsende Bibliothek optimierter Modelle für Cloud TPU. Diese bieten optimierte Leistung, Treffsicherheit und Qualität für Bildklassifizierung, Objekterkennung, Sprachmodellierung, Spracherkennung und mehr.

Cloud TPUs mit kundenspezifischen Maschinentypen verbinden

Sie können Cloud TPUs mit den kundenspezifischen VM-Typen von Deep Learning VM Image in der AI Platform verbinden, um so für Ihre Arbeitslasten eine optimale Balance zwischen Prozessorgeschwindigkeit, Arbeitsspeicher und leistungsfähigen Speicherressourcen herzustellen.

Vollständige Einbindung in Google Cloud

Cloud TPUs sowie Daten- und Analysedienste von Google Cloud sind vollständig in andere Google Cloud-Produkte wie Google Kubernetes Engine (GKE) eingebunden. Wenn Sie also ML-Arbeitslasten auf Cloud TPUs ausführen, profitieren Sie von den branchenführenden Speicher-, Netzwerk- und Datenanalysetechnologien von Google Cloud.

Cloud TPUs auf Abruf

Sparen Sie Geld und verwenden Sie Cloud TPUs auf Abruf für fehlertolerante ML-Arbeitslasten wie zum Beispiel lange Trainingsläufe mit Prüfpunkten oder Batchvorhersagen für große Datasets. Cloud TPUs auf Abruf sind 70 % günstiger als On-Demand-Instanzen. Damit wird ML erschwinglicher als je zuvor, von Ihren ersten Experimenten bis hin zu umfangreichen Hyperparameter-Suchen.

Das Potenzial der Verwendung von Cloud TPU Pods zur Beschleunigung unserer Deep-Learning-Forschung ist ein großer Vorteil. Gleichzeitig können wir unsere Betriebskosten niedrig und die Komplexität gering halten. Wir brauchen derzeit etwas mehr als 24 Stunden, um Modelle in unserem lokalen GPU-Cluster zu trainieren. Abhängig von der Größe des TPU Pods werden dies künftig nur noch zwischen 7 Stunden und 15 Minuten sein.

Ben Mabey, Vice President, Engineering, bei Recursion Pharmaceuticals

Unsere Kunden

Logo: NomaniniLogoLogoLogoLogoLogoLogo: Nomanini

Preise

Für die Verwendung von Cloud TPUs auf Abruf und von On-Demand-Cloud TPUs (nicht auf Abruf) zum Trainieren von ML-Modellen fallen Gebühren an. Ausführliche Preisinformationen finden Sie in der Preisübersicht.

Preise für einzelne Cloud TPU-Geräte

Die folgende Tabelle enthält die Preise für die Nutzung eines einzelnen Cloud TPU-Geräts nach Region.

Version On demand Auf Abruf
Cloud TPU v2 4,50 $/TPU-Stunde 1,35 $/TPU-Stunde
Cloud TPU v3 8,00 $/TPU-Stunde 2,40 $/TPU-Stunde

Cloud TPU Pod-Preise

Die folgende Tabelle enthält die Preise für die Nutzung von Cloud TPU Pod-Slices.

Cloud TPU v2 Pod Kennenlernpreis pro Stunde Preis bei Nutzungszusicherung 1 Jahr (37 % Rabatt) Preis bei Nutzungszusicherung 3 Jahre (55 % Rabatt)
Pod-Slice mit 32 Kernen 24 $ 132.451 $ 283.824 $
Pod-Slice mit 128 Kernen 96 $ 529.805 $ 1.135.296 $
Pod-Slice mit 256 Kernen 192 $ 1.059.610 $ 2.270.592 $
Pod-Slice mit 512 Kernen 384 $ 2.119.219 $ 4.541.184 $
Cloud TPU v3 Pod Kennenlernpreis pro Stunde Preis bei Nutzungszusicherung 1 Jahr (37 % Rabatt) Preis bei Nutzungszusicherung 3 Jahre (55 % Rabatt)
Pod-Slice mit 32 Kernen 32 $ 176.601 $ 378.432 $

Wenn Sie eine Cloud TPU Pod-Konfiguration oder einen Preis für größere Cloud TPU v3 Pod-Slices wünschen, kontaktieren Sie einen Vertriebsmitarbeiter.

Gleich loslegen

Profitieren Sie von einem Guthaben über 300 $, um Google Cloud und mehr als 20 „Immer kostenlos“-Produkte kennenzulernen.

Benötigen Sie Hilfe beim Einstieg?
Unterstützung durch Google Cloud-Partner

Cloud KI-Produkte entsprechen den SLA-Richtlinien von Google Cloud. Sie bieten eventuell von anderen Google Cloud-Diensten abweichende Latenz- oder Verfügbarkeitsgarantien.