Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Google Cloud TPUs sind speziell entwickelte KI-Beschleuniger von Google, die für das Training und die Verwendung großer KI-Modelle optimiert sind. Sie sind darauf ausgelegt, eine kosteneffiziente Skalierung für eine Vielzahl von KI-Arbeitslasten zu ermöglichen, und bieten die Vielseitigkeit, um Inferenzarbeitslasten in KI-Frameworks wie PyTorch, JAX und TensorFlow zu beschleunigen. Weitere Informationen zu TPUs finden Sie unter Einführung inGoogle Cloud TPU.
Voraussetzungen für die Verwendung von TPUs in Dataflow
Ihre Google Cloud Projekte müssen genehmigt werden, damit Sie dieses GA-Angebot nutzen können.
Beschränkungen
Für dieses Angebot gelten die folgenden Einschränkungen:
Nur TPU-Beschleuniger mit einem Host werden unterstützt: Das Dataflow-TPU-Angebot unterstützt nur TPU-Konfigurationen mit einem Host, bei denen jeder Dataflow-Worker ein oder mehrere TPU-Geräte verwaltet, die nicht mit TPUs verbunden sind, die von anderen Workern verwaltet werden.
Es werden nur homogene TPU-Worker-Pools unterstützt: Funktionen wie Dataflow Right Fitting und Dataflow Prime unterstützen keine TPU-Arbeitslasten.
Preise
Für Dataflow-Jobs, die TPUs verwenden, werden die verbrauchten TPU-Chipstunden des Workers in Rechnung gestellt. Worker-CPU und -Arbeitsspeicher werden nicht in Rechnung gestellt. Weitere Informationen finden Sie auf der Preisseite zu Dataflow.
Verfügbarkeit
Die folgenden TPU-Beschleuniger und Verarbeitungsregionen sind verfügbar.
Unterstützte TPU-Beschleuniger
Die unterstützten Kombinationen von TPU-Beschleunigern werden durch das Tupel (TPU-Typ, TPU-Topologie) angegeben.
TPU-Typ bezieht sich auf das Modell des TPU-Geräts.
Die TPU-Topologie bezieht sich auf die Anzahl und physische Anordnung der TPU-Chips in einem Slice.
Mit der Pipeline-Option worker_accelerator im Format type:TPU_TYPE;topology:TPU_TOPOLOGY können Sie den Typ und die Topologie von TPUs für Dataflow-Worker konfigurieren.
Die folgenden TPU-Konfigurationen werden mit Dataflow unterstützt:
TPU-Typ
Topologie
worker_machine_type ist erforderlich
tpu-v5-lite-podslice
1x1
ct5lp-hightpu-1t
tpu-v5-lite-podslice
2x2
ct5lp-hightpu-4t
tpu-v5-lite-podslice
2x4
ct5lp-hightpu-8t
tpu-v6e-slice
1x1
ct6e-standard-1t
tpu-v6e-slice
2x2
ct6e-standard-4t
tpu-v6e-slice
2x4
ct6e-standard-8t
tpu-v5p-slice
2x2x1
ct5p-hightpu-4t
Regionen
Informationen zu verfügbaren Regionen und Zonen für TPUs finden Sie unter TPU-Regionen und -Zonen in der Cloud TPU-Dokumentation.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-04 (UTC)."],[],[],null,["| **Note:** The Dataflow TPU offering is generally available with an allowlist. To get access to this feature, reach out to your account team.\n\nGoogle Cloud TPUs are custom-designed AI accelerators created by Google that are\noptimized for training and using of large AI models. They are designed to\nscale cost-efficiently for a wide range of AI workloads and provide versatility\nto accelerate inference workloads on AI frameworks, including PyTorch, JAX, and\nTensorFlow. For more details about TPUs, see [Introduction to\nGoogle Cloud TPU](/tpu/docs/intro-to-tpu).\n\nPrerequisites for using TPUs in Dataflow\n\n- Your Google Cloud projects must be approved to use this GA offering.\n\nLimitations\n\nThis offering is subject to the following limitations:\n\n- **Only single-host TPU accelerators are supported**: The Dataflow TPU offering supports only single-host TPU configurations where each Dataflow worker manages one or many TPU devices that are not interconnected with TPUs managed by other workers.\n- **Only homogenous TPU worker pools are supported**: Features like Dataflow right fitting and Dataflow Prime don't support TPU workloads.\n\nPricing\n\nDataflow jobs that use TPUs are billed for worker TPU chip-hours\nconsumed and are not billed for worker CPU and memory. For more information, see\nthe Dataflow [pricing page](/dataflow/pricing).\n\nAvailability\n\nThe following TPU accelerators and processing regions are available.\n\nSupported TPU accelerators\n\nThe supported TPU accelerator combinations are identified by the tuple (TPU\ntype, TPU topology).\n\n- **TPU type** refers to the model of the TPU device.\n- **TPU topology** refers to the number and physical arrangement of the TPU chips in a slice.\n\nTo configure the type and topology of TPUs for Dataflow workers,\nuse the [`worker_accelerator` pipeline\noption](/dataflow/docs/reference/service-options) formatted as\n`type:TPU_TYPE;topology:TPU_TOPOLOGY`.\n\nThe following TPU configurations are supported with Dataflow:\n\n| TPU type | Topology | Required `worker_machine_type` |\n|----------------------|----------|--------------------------------|\n| tpu-v5-lite-podslice | 1x1 | ct5lp-hightpu-1t |\n| tpu-v5-lite-podslice | 2x2 | ct5lp-hightpu-4t |\n| tpu-v5-lite-podslice | 2x4 | ct5lp-hightpu-8t |\n| tpu-v6e-slice | 1x1 | ct6e-standard-1t |\n| tpu-v6e-slice | 2x2 | ct6e-standard-4t |\n| tpu-v6e-slice | 2x4 | ct6e-standard-8t |\n| tpu-v5p-slice | 2x2x1 | ct5p-hightpu-4t |\n\nRegions\n\nFor information about available regions and zones for TPUs, see [TPU regions and\nzones](/tpu/docs/regions-zones) in the Cloud TPU documentation.\n\nWhat's next\n\n- Learn how to [run an Apache Beam pipeline on Dataflow with\n TPUs](/dataflow/docs/tpu/use-tpus).\n- Learn how to [troubleshoot your Dataflow TPU\n job](/dataflow/docs/tpu/troubleshoot-tpus)."]]