Cloud Tensor Processing Units (TPUs)

AI-Entwicklung mit Google Cloud TPUs beschleunigen

Cloud TPUs optimieren Leistung und Kosten für alle AI-Arbeitslasten vom Training bis zur Inferenz. Mit der erstklassigen Infrastruktur von Rechenzentren bieten TPUs hohe Zuverlässigkeit, Verfügbarkeit und Sicherheit.

Sie sind sich nicht sicher, ob TPUs die richtige Wahl sind? Hier erfahren Sie, wann Sie in Compute Engine-Instanzen GPUs oder CPUs zum Ausführen Ihrer ML-Arbeitslasten verwenden sollten.

Überblick

Was ist eine Tensor Processing Unit (TPU)?

Google Cloud TPUs sind speziell entwickelte KI-Beschleuniger, die für das Training und die Inferenz großer AI-Modelle optimiert sind. Sie eignen sich ideal für eine Vielzahl von Anwendungsfällen, z. B. Chatbots, Codegenerierung, Generierung von Medieninhalten, synthetische Sprache, Vision-Dienste, Empfehlungssysteme, Personalisierungsmodelle usw.

Welche Vorteile bieten Cloud TPUs?

Cloud TPUs sind darauf ausgelegt, eine kosteneffiziente Skalierung für eine Vielzahl von KI-Arbeitslasten zu ermöglichen – von Training über Feinabstimmung bis hin zu Inferenz. Cloud TPUs bieten die Vielseitigkeit, um Arbeitslasten in führenden KI-Frameworks wie PyTorch, JAX und TensorFlow zu erstellen. Große AI-Arbeitslasten lassen sich durch die Cloud TPU-Einbindung in Google Kubernetes Engine (GKE) nahtlos orchestrieren. Mit dem dynamischen Workload Scheduler können Sie alle benötigten Beschleuniger gleichzeitig planen und so die Skalierbarkeit von Arbeitslasten verbessern. Kunden, die AI-Modelle auf einfachste Art entwickeln möchten, können auch Cloud TPUs in Vertex AI, einer vollständig verwalteten AI-Plattform, nutzen.

Wann sollten Cloud TPUs verwendet werden?

Cloud TPUs sind für das Trainieren großer und komplexer Deep-Learning-Modelle mit vielen Matrixberechnungen optimiert, z. B. für das Erstellen von Large Language Models (LLMs). Cloud TPUs haben auch SparseCores, bei denen es sich um Dataflow-Prozessoren handelt, die Modelle beschleunigen, welche auf Einbettungen in Empfehlungsmodellen basieren. Weitere Anwendungsfälle gibt es beispielsweise im Gesundheitswesen, wie die Proteinfaltungsmodellierung und die Wirkstoffsuche.

Wie unterscheiden sich Cloud TPUs von GPUs?

Eine GPU ist ein spezieller Prozessor, der ursprünglich für die Manipulation von Computergrafiken entwickelt wurde. Ihre parallele Struktur macht sie ideal für Algorithmen, die große Datenblöcke verarbeiten, welche häufig in ML-Arbeitslasten enthalten sind. Weitere Informationen

Eine TPU ist ein anwendungsspezifischer integrierter Schaltkreis (Application-Specific Integrated Circuit, ASIC), der von Google für neuronale Netzwerke entwickelt wurde. TPUs haben spezielle Features wie die Matrixmultiplikationseinheit (MXU) und die proprietäre Interconnect-Topologie, die sich ideal für ein schnelleres KI-Training und für die Inferenz eignen.

Cloud TPU-Versionen

Cloud TPU-VersionBeschreibungVerfügbarkeit

Trillium

Die bislang fortschrittlichste Cloud TPU

Während der Vorabversion ist Trillium in Nordamerika (Region „US-Ost“), Europa (Region „West“) und Asien (Region Nordost) verfügbar

Cloud TPU v5p

Die leistungsstärkste Cloud TPU zum Trainieren von KI-Modellen

Cloud TPU v5p ist allgemein in Nordamerika (Region „US-Ost“) verfügbar

Cloud TPU v5e

Eine vielseitige Cloud TPU für Trainings- und Inferenzanforderungen

Cloud TPU v5e ist allgemein in Nordamerika (Regionen (Mittel-/Ost-/Süd-/West der USA), Europa (Westregion) und Asien (Südostregion) verfügbar

Weitere Informationen zu Cloud TPU-Versionen

Trillium

Beschreibung

Die bislang fortschrittlichste Cloud TPU

Verfügbarkeit

Während der Vorabversion ist Trillium in Nordamerika (Region „US-Ost“), Europa (Region „West“) und Asien (Region Nordost) verfügbar

Cloud TPU v5p

Beschreibung

Die leistungsstärkste Cloud TPU zum Trainieren von KI-Modellen

Verfügbarkeit

Cloud TPU v5p ist allgemein in Nordamerika (Region „US-Ost“) verfügbar

Cloud TPU v5e

Beschreibung

Eine vielseitige Cloud TPU für Trainings- und Inferenzanforderungen

Verfügbarkeit

Cloud TPU v5e ist allgemein in Nordamerika (Regionen (Mittel-/Ost-/Süd-/West der USA), Europa (Westregion) und Asien (Südostregion) verfügbar

Weitere Informationen zu Cloud TPU-Versionen

Funktionsweise

Erhalten Sie einen Einblick in die Magie der Google Cloud TPUs und erhalten Sie einen seltenen Einblick in die Rechenzentren, in denen alles stattfindet. Kunden nutzen Cloud TPUs, um einige der weltweit größten KI-Arbeitslasten auszuführen, und die Leistung basiert nicht nur auf einem Chip. In diesem Video werfen wir einen Blick auf die Komponenten des TPU-Systems, darunter das Netzwerk von Rechenzentren, optische Schalter, Wasserkühlsysteme, biometrische Sicherheitsprüfung und mehr.

Mit TPU-Video ersetzen

Gängige Einsatzmöglichkeiten

Große KI-Trainingsarbeitslasten ausführen

Leistungsstarkes und effizientes Modelltraining

Mit MaxText und MaxDiffusion, den leistungsstarken, hoch skalierbaren Open-Source-Referenzbereitstellungen für das Training großer Modelle, sind Sie im Handumdrehen startbereit.

Weitere Informationen
Relative Leistung von MaxText

Leistungsstarkes und effizientes Modelltraining

Mit MaxText und MaxDiffusion, den leistungsstarken, hoch skalierbaren Open-Source-Referenzbereitstellungen für das Training großer Modelle, sind Sie im Handumdrehen startbereit.

Weitere Informationen
Relative Leistung von MaxText

Leistungsstarkes, skalierbares und effizientes KI-Training

Maximieren Sie mit Cloud TPUs Leistung, Effizienz und Wertschöpfung.Skalieren Sie mit dem Cloud TPU-Multislice-Training auf Tausende von Chips.Messen und verbessern Sie mit ML Goodput Measurement die ML-Trainingsproduktivität in großem Maßstab.Mit MaxText und MaxDiffusion, den Open-Source-Referenzbereitstellungen für das Training großer Modelle, können Sie schnell loslegen.

Nahezu lineare Skalierung auf Zehntausende von Chips mit Multi-Slice-Training

Grundlegende KI-Modelle optimieren

LLMs mit Pytorch/XLA für Ihre Anwendungen anpassen

Sie können Basismodelle effizient optimieren, indem Sie Ihre eigenen Trainingsdaten für Ihren Anwendungsfall nutzen. Cloud TPU v5e bietet im Vergleich zu Cloud TPU v4 eine bis zu 1,9-mal höhere LLM-Feinabstimmungsleistung pro Dollar.

Cloud TPU LLM Feinabstimmung der Leistung/USD

    LLMs mit Pytorch/XLA für Ihre Anwendungen anpassen

    Sie können Basismodelle effizient optimieren, indem Sie Ihre eigenen Trainingsdaten für Ihren Anwendungsfall nutzen. Cloud TPU v5e bietet im Vergleich zu Cloud TPU v4 eine bis zu 1,9-mal höhere LLM-Feinabstimmungsleistung pro Dollar.

    Cloud TPU LLM Feinabstimmung der Leistung/USD

      Große KI-Inferenzarbeitslasten bereitstellen

      Skalierbare, kosteneffiziente Inferenz mit hoher Leistung

      KI-Inferenzen mit JetStream und MaxDiffusion beschleunigen JetStream ist eine neue Inferenz-Engine, die speziell für LLM-Inferenzen (Large Language Model) entwickelt wurde. JetStream stellt einen erheblichen Fortschritt in puncto Leistung und Kosteneffizienz dar und bietet einen beispiellosen Durchsatz und eine beispiellose Latenz für LLM-Inferenzen auf Cloud TPUs. MaxDiffusion umfasst eine Reihe von Implementierungen von Diffusionsmodellen, die für Cloud TPUs optimiert sind. Dadurch wird die Ausführung von Inferenzen für Diffusionsmodelle auf Cloud TPUs mit hoher Leistung erleichtert.

      Weitere Informationen

      Skalierbare, kosteneffiziente Inferenz mit hoher Leistung

      KI-Inferenzen mit JetStream und MaxDiffusion beschleunigen JetStream ist eine neue Inferenz-Engine, die speziell für LLM-Inferenzen (Large Language Model) entwickelt wurde. JetStream stellt einen erheblichen Fortschritt in puncto Leistung und Kosteneffizienz dar und bietet einen beispiellosen Durchsatz und eine beispiellose Latenz für LLM-Inferenzen auf Cloud TPUs. MaxDiffusion umfasst eine Reihe von Implementierungen von Diffusionsmodellen, die für Cloud TPUs optimiert sind. Dadurch wird die Ausführung von Inferenzen für Diffusionsmodelle auf Cloud TPUs mit hoher Leistung erleichtert.

      Weitere Informationen

      Maximale Leistung/USD mit skalierbarer KI-Infrastruktur

      Cloud TPU v5e ermöglicht leistungsstarke und kostengünstige Inferenz für eine Vielzahl von KI-Arbeitslasten, einschließlich der neuesten LLMs und Gen AI-Modelle. TPU v5e bietet eine bis zu 2,5-mal höhere Durchsatzleistung pro US-Dollar und eine bis zu 1,7-fache Beschleunigung gegenüber Cloud TPU v4. Jeder TPU v5e-Chip bietet bis zu 393 Billionen int8-Vorgänge pro Sekunde, sodass komplexe Modelle schnelle Vorhersagen treffen können. Ein TPU v5e-Pod bietet bis zu 100 Billiarden int8-Vorgänge pro Sekunde oder 100 PetaOps Rechenleistung.

      Weitere Informationen zur Inferenz auf TPU v5e
      Cloud TPU v5e-Pod

      Cloud TPU in GKE

      Optimierte KI-Arbeitslasten mit Plattformorchestrierung ausführen

      Eine robuste KI-/ML-Plattform berücksichtigt die folgenden Ebenen: (i) Infrastrukturorchestrierung, die GPUs zum Trainieren und Bereitstellen von Arbeitslasten in großem Maßstab unterstützt, (ii) Flexible Einbindung in verteiltes Computing und Datenverarbeitungs-Frameworks und (iii) Unterstützung für mehrere Teams in derselben Infrastruktur, um die Ressourcennutzung zu maximieren.

      Weitere Informationen zur KI-/ML-Orchestrierung in GKE

      Optimierte KI-Arbeitslasten mit Plattformorchestrierung ausführen

      Eine robuste KI-/ML-Plattform berücksichtigt die folgenden Ebenen: (i) Infrastrukturorchestrierung, die GPUs zum Trainieren und Bereitstellen von Arbeitslasten in großem Maßstab unterstützt, (ii) Flexible Einbindung in verteiltes Computing und Datenverarbeitungs-Frameworks und (iii) Unterstützung für mehrere Teams in derselben Infrastruktur, um die Ressourcennutzung zu maximieren.

      Weitere Informationen zur KI-/ML-Orchestrierung in GKE

      Mühelose Skalierung mit GKE

      Kombinieren Sie die Leistungsfähigkeit von Cloud TPUs mit der Flexibilität und Skalierbarkeit von GKE, um Modelle für maschinelles Lernen schneller und einfacher als je zuvor zu erstellen und bereitzustellen. Dank der in GKE verfügbaren Cloud TPUs haben Sie jetzt eine einzige konsistente Betriebsumgebung für alle Arbeitslasten und können damit automatisierte MLOps-Pipelines standardisieren.

      Weitere Informationen
      TPU in der GKE-Architektur

      Cloud TPU in Vertex AI

      Vertex AI – Training und Vorhersagen mit Cloud TPUs

      Kunden, die nach der einfachsten Möglichkeit zur Entwicklung von KI-Modellen suchen, können Cloud TPU v5e mit Vertex AI bereitstellen, einer End-to-End-Plattform zum Erstellen von KI-Modellen auf einer vollständig verwalteten Infrastruktur, die auf Bereitstellung mit niedriger Latenz und Hochleistungstraining ausgelegt ist.

      Vertex AI – Training und Vorhersagen mit Cloud TPUs

      Kunden, die nach der einfachsten Möglichkeit zur Entwicklung von KI-Modellen suchen, können Cloud TPU v5e mit Vertex AI bereitstellen, einer End-to-End-Plattform zum Erstellen von KI-Modellen auf einer vollständig verwalteten Infrastruktur, die auf Bereitstellung mit niedriger Latenz und Hochleistungstraining ausgelegt ist.

      Preise

      Cloud TPU-PreiseAlle Cloud TPU-Preise werden pro Chipstunde berechnet
      Cloud TPU-VersionKennenlernpreis (in $)Zusicherung für 1 Jahr (USD)Zusicherung für 3 Jahre (USD)

      Trillium

      Starting at

      $ 2,7000

      pro Chipstunde

      Starting at

      1,8900 $

      pro Chipstunde

      Starting at

      $ 1,2200

      pro Chipstunde

      Cloud TPU v5p

      Starting at

      4,2000 $

      pro Chipstunde

      Starting at

      2,9400 $

      pro Chipstunde

      Starting at

      1,8900 $

      pro Chipstunde

      Cloud TPU v5e

      Starting at

      1,2000 $

      pro Chipstunde

      Starting at

      0,8400 $

      pro Chipstunde

      Starting at

      0,5400 $

      pro Chipstunde

      Cloud TPU-Preise variieren je nach Produkt und Region.

      Cloud TPU-Preise

      Alle Cloud TPU-Preise werden pro Chipstunde berechnet

      Trillium

      Kennenlernpreis (in $)

      Starting at

      $ 2,7000

      pro Chipstunde

      Zusicherung für 1 Jahr (USD)

      Starting at

      1,8900 $

      pro Chipstunde

      Zusicherung für 3 Jahre (USD)

      Starting at

      $ 1,2200

      pro Chipstunde

      Cloud TPU v5p

      Kennenlernpreis (in $)

      Starting at

      4,2000 $

      pro Chipstunde

      Zusicherung für 1 Jahr (USD)

      Starting at

      2,9400 $

      pro Chipstunde

      Zusicherung für 3 Jahre (USD)

      Starting at

      1,8900 $

      pro Chipstunde

      Cloud TPU v5e

      Kennenlernpreis (in $)

      Starting at

      1,2000 $

      pro Chipstunde

      Zusicherung für 1 Jahr (USD)

      Starting at

      0,8400 $

      pro Chipstunde

      Zusicherung für 3 Jahre (USD)

      Starting at

      0,5400 $

      pro Chipstunde

      Cloud TPU-Preise variieren je nach Produkt und Region.

      PREISRECHNER

      Mit dem Preisrechner können Sie Ihre monatlichen Cloud TPU-Kosten einschließlich regionsspezifischer Preise und Gebühren schätzen.

      INDIVIDUELLES ANGEBOT

      Wenden Sie sich an unser Vertriebsteam, wenn Sie ein individuelles Angebot für Ihr Unternehmen erhalten möchten.

      Proof of Concept starten

      Cloud TPUs kostenlos testen

      Kurze Einführung in Cloud TPUs

      TensorFlow auf der Cloud TPU-VM ausführen

      JAX auf der Cloud TPU-VM ausführen

      PyTorch auf Cloud TPU-VM ausführen

      Google Cloud
      • ‪English‬
      • ‪Deutsch‬
      • ‪Español‬
      • ‪Español (Latinoamérica)‬
      • ‪Français‬
      • ‪Indonesia‬
      • ‪Italiano‬
      • ‪Português (Brasil)‬
      • ‪简体中文‬
      • ‪繁體中文‬
      • ‪日本語‬
      • ‪한국어‬
      Console
      Google Cloud