Wir präsentieren Cloud TPU v5e, unsere bisher kostengünstigste, vielseitigste und skalierbarste Cloud TPU.

Cloud Tensor Processing Units (TPUs)

KI-Entwicklung mit Google Cloud TPUs beschleunigen

Cloud TPUs optimieren Leistung und Kosten für alle KI-Arbeitslasten vom Training bis zur Inferenz. Mit der erstklassigen Infrastruktur von Rechenzentren bieten TPUs hohe Zuverlässigkeit, Verfügbarkeit und Sicherheit.

Sie sind sich nicht sicher, ob TPUs die richtige Wahl sind? Hier erfahren Sie, wann Sie in Compute Engine-Instanzen GPUs oder CPUs zum Ausführen Ihrer ML-Arbeitslasten verwenden sollten.

Überblick

Was ist eine Tensor Processing Unit (TPU)?

Google Cloud TPUs sind speziell entwickelte KI-Beschleuniger, die für das Training und die Inferenz großer KI-Modelle optimiert sind. Sie eignen sich ideal für eine Vielzahl von Anwendungsfällen, z. B. Chatbots, Codegenerierung, Generierung von Medieninhalten, synthetische Sprache, Vision-Dienste, Empfehlungssysteme, Personalisierungsmodelle usw. 

Welche Vorteile bietet das Cloud TPUs?

Cloud TPUs sind darauf ausgelegt, eine kosteneffiziente Skalierung für eine Vielzahl von KI-Arbeitslasten zu ermöglichen – von Training über Feinabstimmung bis hin zu Inferenz. Cloud TPUs bieten die Vielseitigkeit, um Arbeitslasten in führenden KI-Frameworks wie PyTorch, JAX und TensorFlow zu erstellen. Große KI-Arbeitslasten lassen sich durch die Cloud TPU-Einbindung in Google Kubernetes Engine (GKE) nahtlos orchestrieren. Kunden, die KI-Modelle auf einfachste Art entwickeln möchten, können auch Cloud TPUs in Vertex AI, einer vollständig verwalteten KI-Plattform, nutzen.

Wann sollten Cloud TPUs verwendet werden?

Cloud TPUs sind für das Trainieren großer und komplexer Deep-Learning-Modelle mit vielen Matrixberechnungen optimiert, z. B. für das Erstellen von Large Language Models (LLMs). Cloud TPUs haben auch SparseCores, bei denen es sich um Dataflow-Prozessoren handelt, die Modelle beschleunigen, welche auf Einbettungen in Empfehlungsmodellen basieren. Weitere Anwendungsfälle gibt es beispielsweise im Gesundheitswesen, wie die Proteinfaltungsmodellierung und die Wirkstoffsuche.

Wie unterscheiden sich Cloud TPUs von GPUs?

Eine GPU ist ein spezieller Prozessor, der ursprünglich für die Manipulation von Computergrafiken entwickelt wurde. Ihre parallele Struktur macht sie ideal für Algorithmen, die große Datenblöcke verarbeiten, welche häufig in ML-Arbeitslasten enthalten sind. Weitere Informationen

Eine TPU ist ein anwendungsspezifischer integrierter Schaltkreis (Application-Specific Integrated Circuit, ASIC), der von Google für neuronale Netzwerke entwickelt wurde. TPUs haben spezielle Features wie die Matrixmultiplikationseinheit (MXU) und die proprietäre Interconnect-Topologie, die sich ideal für ein schnelleres KI-Training und für die Inferenz eignen.

Cloud TPU-Versionen

Cloud TPU v5e

Die effizienteste, vielseitigste und skalierbarste Cloud TPU.

Cloud TPU v5e wird in Nordamerika (Regionen West/Central/Ost der USA), EMEA (Niederlande) und APAC (Singapur) verfügbar sein

Cloud TPU v4

Die leistungsstärkste Cloud TPU zum Trainieren von KI-Modellen.

Cloud TPUv4 ist in der Region us-central2 verfügbar

Cloud TPU-Version Beschreibung Verfügbarkeit

Cloud TPU v5e

Die effizienteste, vielseitigste und skalierbarste Cloud TPU.

Cloud TPU v5e wird in Nordamerika (Regionen West/Central/Ost der USA), EMEA (Niederlande) und APAC (Singapur) verfügbar sein

Cloud TPU v4

Die leistungsstärkste Cloud TPU zum Trainieren von KI-Modellen.

Cloud TPUv4 ist in der Region us-central2 verfügbar

Funktionsweise

Erhalten Sie einen Einblick in die Magie der Google Cloud TPUs und erhalten Sie einen seltenen Einblick in die Rechenzentren, in denen alles stattfindet. Kunden nutzen Cloud TPUs, um einige der weltweit größten KI-Arbeitslasten auszuführen, und die Leistung basiert nicht nur auf einem Chip. In diesem Video werfen wir einen Blick auf die Komponenten des TPU-Systems, darunter das Netzwerk von Rechenzentren, optische Schalter, Wasserkühlsysteme, biometrische Sicherheitsprüfung und mehr.

Gängige Einsatzmöglichkeiten

Große KI-Trainingsarbeitslasten ausführen

Grundlegende KI-Modelle optimieren

Große KI-Inferenzarbeitslasten bereitstellen

Cloud TPU in GKE

Cloud TPU in Vertex AI

Preise

Cloud TPU-Preise

Alle Cloud TPU-Preise werden pro Chipstunde berechnet

Cloud TPU v5e

Ab

1.200 $

pro Chipstunde

Ab

0,8400 $

pro Chipstunde

Ab

0,5400 $

pro Chipstunde

Cloud TPU v4

Ab

3.2200 $

pro Chipstunde

Ab

2.0286 $

pro Chipstunde

Ab

1.4490 $

pro Chipstunde

Cloud TPU-Preise Alle Cloud TPU-Preise werden pro Chipstunde berechnet
Cloud TPU-Version Kennenlernpreis (in $) Zusicherung für 1 Jahr (USD) Zusicherung für 3 Jahre (USD)
Cloud TPU v5e

Ab

1.200 $

pro Chipstunde

Ab

0,8400 $

pro Chipstunde

Ab

0,5400 $

pro Chipstunde

Cloud TPU v4

Ab

3.2200 $

pro Chipstunde

Ab

2.0286 $

pro Chipstunde

Ab

1.4490 $

pro Chipstunde

PREISRECHNER

Mit dem Preisrechner können Sie Ihre monatlichen Cloud TPU-Kosten einschließlich regionsspezifischer Preise und Gebühren schätzen.
Kosten abschätzen

Individuelles Angebot

Wenden Sie sich an unser Vertriebsteam, wenn Sie ein individuelles Angebot für Ihr Unternehmen erhalten möchten.
Angebot anfordern

Proof of Concept starten

Cloud TPUs kostenlos testen

Erste Schritte

Kurze Einführung in Cloud TPUs

Weitere Informationen

TensorFlow auf der Cloud TPU-VM ausführen

Leitfaden ansehen

JAX auf der Cloud TPU-VM ausführen

Leitfaden ansehen

PyTorch auf Cloud TPU-VM ausführen

Leitfaden ansehen