Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Google Cloud Le TPU sono acceleratori AI progettati su misura creati da Google e ottimizzati per l'addestramento e l'utilizzo di modelli AI di grandi dimensioni. Sono progettate per scalare in modo economico per un'ampia gamma di carichi di lavoro AI e offrono la versatilità per accelerare i carichi di lavoro di inferenza sui framework AI, tra cui PyTorch, JAX e TensorFlow. Per maggiori dettagli sulle TPU, consulta Introduzione a
Google Cloud TPU.
Prerequisiti per l'utilizzo delle TPU in Dataflow
I tuoi Google Cloud progetti devono essere approvati per utilizzare questa offerta GA.
Limitazioni
Questa offerta è soggetta alle seguenti limitazioni:
Sono supportati solo gli acceleratori TPU a singolo host: l'offerta Dataflow TPU supporta solo le configurazioni TPU a singolo host in cui ogni worker Dataflow gestisce uno o più dispositivi TPU non interconnessi con le TPU gestite da altri worker.
Sono supportati solo i pool di worker TPU omogenei: funzionalità come
il dimensionamento corretto di Dataflow e Dataflow Prime
non supportano i carichi di lavoro TPU.
Prezzi
I job Dataflow che utilizzano le TPU vengono fatturati in base alle ore di utilizzo dei chip TPU dei worker e non in base alla CPU e alla memoria dei worker. Per ulteriori informazioni, consulta la pagina dei prezzi di Dataflow.
Disponibilità
Sono disponibili i seguenti acceleratori TPU e regioni di elaborazione.
Acceleratori TPU supportati
Le combinazioni di acceleratori TPU supportate sono identificate dalla tupla (tipo di TPU, topologia TPU).
Tipo di TPU si riferisce al modello del dispositivo TPU.
La topologia TPU si riferisce al numero e alla disposizione fisica dei chip TPU in una sezione.
Per configurare il tipo e la topologia delle TPU per i worker Dataflow,
utilizza l'opzione
worker_accelerator pipeline formattata come
type:TPU_TYPE;topology:TPU_TOPOLOGY.
Le seguenti configurazioni TPU sono supportate con Dataflow:
Tipo di TPU
Topologia
Obbligatorio worker_machine_type
tpu-v5-lite-podslice
1x1
ct5lp-hightpu-1t
tpu-v5-lite-podslice
2x2
ct5lp-hightpu-4t
tpu-v5-lite-podslice
2x4
ct5lp-hightpu-8t
tpu-v6e-slice
1x1
ct6e-standard-1t
tpu-v6e-slice
2x2
ct6e-standard-4t
tpu-v6e-slice
2x4
ct6e-standard-8t
tpu-v5p-slice
2x2x1
ct5p-hightpu-4t
Regioni
Per informazioni sulle regioni e sulle zone disponibili per le TPU, consulta Regioni e zone TPU nella documentazione di Cloud TPU.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-04 UTC."],[],[],null,["| **Note:** The Dataflow TPU offering is generally available with an allowlist. To get access to this feature, reach out to your account team.\n\nGoogle Cloud TPUs are custom-designed AI accelerators created by Google that are\noptimized for training and using of large AI models. They are designed to\nscale cost-efficiently for a wide range of AI workloads and provide versatility\nto accelerate inference workloads on AI frameworks, including PyTorch, JAX, and\nTensorFlow. For more details about TPUs, see [Introduction to\nGoogle Cloud TPU](/tpu/docs/intro-to-tpu).\n\nPrerequisites for using TPUs in Dataflow\n\n- Your Google Cloud projects must be approved to use this GA offering.\n\nLimitations\n\nThis offering is subject to the following limitations:\n\n- **Only single-host TPU accelerators are supported**: The Dataflow TPU offering supports only single-host TPU configurations where each Dataflow worker manages one or many TPU devices that are not interconnected with TPUs managed by other workers.\n- **Only homogenous TPU worker pools are supported**: Features like Dataflow right fitting and Dataflow Prime don't support TPU workloads.\n\nPricing\n\nDataflow jobs that use TPUs are billed for worker TPU chip-hours\nconsumed and are not billed for worker CPU and memory. For more information, see\nthe Dataflow [pricing page](/dataflow/pricing).\n\nAvailability\n\nThe following TPU accelerators and processing regions are available.\n\nSupported TPU accelerators\n\nThe supported TPU accelerator combinations are identified by the tuple (TPU\ntype, TPU topology).\n\n- **TPU type** refers to the model of the TPU device.\n- **TPU topology** refers to the number and physical arrangement of the TPU chips in a slice.\n\nTo configure the type and topology of TPUs for Dataflow workers,\nuse the [`worker_accelerator` pipeline\noption](/dataflow/docs/reference/service-options) formatted as\n`type:TPU_TYPE;topology:TPU_TOPOLOGY`.\n\nThe following TPU configurations are supported with Dataflow:\n\n| TPU type | Topology | Required `worker_machine_type` |\n|----------------------|----------|--------------------------------|\n| tpu-v5-lite-podslice | 1x1 | ct5lp-hightpu-1t |\n| tpu-v5-lite-podslice | 2x2 | ct5lp-hightpu-4t |\n| tpu-v5-lite-podslice | 2x4 | ct5lp-hightpu-8t |\n| tpu-v6e-slice | 1x1 | ct6e-standard-1t |\n| tpu-v6e-slice | 2x2 | ct6e-standard-4t |\n| tpu-v6e-slice | 2x4 | ct6e-standard-8t |\n| tpu-v5p-slice | 2x2x1 | ct5p-hightpu-4t |\n\nRegions\n\nFor information about available regions and zones for TPUs, see [TPU regions and\nzones](/tpu/docs/regions-zones) in the Cloud TPU documentation.\n\nWhat's next\n\n- Learn how to [run an Apache Beam pipeline on Dataflow with\n TPUs](/dataflow/docs/tpu/use-tpus).\n- Learn how to [troubleshoot your Dataflow TPU\n job](/dataflow/docs/tpu/troubleshoot-tpus)."]]