Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Google Cloud As TPUs são aceleradores de IA personalizados criados pelo Google e otimizados para treinamento e uso de grandes modelos de IA. Elas foram projetadas para escalonar de maneira econômica para uma ampla variedade de cargas de trabalho de IA e oferecem versatilidade para acelerar cargas de trabalho de inferência em frameworks de IA, incluindo PyTorch, JAX e TensorFlow. Para mais detalhes sobre TPUs, consulte Introdução à
Google Cloud TPU.
Pré-requisitos para usar TPUs no Dataflow
Seus projetos Google Cloud precisam ser aprovados para usar essa oferta de GA.
Limitações
Esta oferta está sujeita às seguintes limitações:
Somente aceleradores de TPU de host único são aceitos: a oferta de TPU do Dataflow aceita apenas configurações de TPU de host único em que cada worker do Dataflow gerencia um ou vários dispositivos de TPU que não estão interconectados com TPUs gerenciadas por outros workers.
Só há suporte para pools de workers de TPU homogêneos: recursos como ajuste direito do Dataflow e Dataflow Prime não são compatíveis com cargas de trabalho de TPU.
Preços
Os jobs do Dataflow que usam TPUs são cobrados pelas horas de chip de TPU do worker consumidas, e não pela CPU e memória do worker. Para mais informações, consulte a página de preços do Dataflow.
Disponibilidade
Os seguintes aceleradores de TPU e regiões de processamento estão disponíveis.
Aceleradores de TPU compatíveis
As combinações de aceleradores de TPU compatíveis são identificadas pela tupla (tipo de TPU, topologia de TPU).
Tipo de TPU se refere ao modelo do dispositivo de TPU.
A topologia de TPU se refere ao número e à disposição física dos chips de TPU em uma fração.
Para configurar o tipo e a topologia de TPUs para workers do Dataflow, use a opção de pipeline worker_accelerator formatada como type:TPU_TYPE;topology:TPU_TOPOLOGY.
As seguintes configurações de TPU são compatíveis com o Dataflow:
Tipo de TPU
Topologia
worker_machine_type obrigatório
tpu-v5-lite-podslice
1x1
ct5lp-hightpu-1t
tpu-v5-lite-podslice
2x2
ct5lp-hightpu-4t
tpu-v5-lite-podslice
2x4
ct5lp-hightpu-8t
tpu-v6e-slice
1x1
ct6e-standard-1t
tpu-v6e-slice
2x2
ct6e-standard-4t
tpu-v6e-slice
2x4
ct6e-standard-8t
tpu-v5p-slice
2x2x1
ct5p-hightpu-4t
Regiões
Para informações sobre regiões e zonas disponíveis para TPUs, consulte Regiões e zonas de TPU na documentação do Cloud TPU.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-09-04 UTC."],[],[],null,["| **Note:** The Dataflow TPU offering is generally available with an allowlist. To get access to this feature, reach out to your account team.\n\nGoogle Cloud TPUs are custom-designed AI accelerators created by Google that are\noptimized for training and using of large AI models. They are designed to\nscale cost-efficiently for a wide range of AI workloads and provide versatility\nto accelerate inference workloads on AI frameworks, including PyTorch, JAX, and\nTensorFlow. For more details about TPUs, see [Introduction to\nGoogle Cloud TPU](/tpu/docs/intro-to-tpu).\n\nPrerequisites for using TPUs in Dataflow\n\n- Your Google Cloud projects must be approved to use this GA offering.\n\nLimitations\n\nThis offering is subject to the following limitations:\n\n- **Only single-host TPU accelerators are supported**: The Dataflow TPU offering supports only single-host TPU configurations where each Dataflow worker manages one or many TPU devices that are not interconnected with TPUs managed by other workers.\n- **Only homogenous TPU worker pools are supported**: Features like Dataflow right fitting and Dataflow Prime don't support TPU workloads.\n\nPricing\n\nDataflow jobs that use TPUs are billed for worker TPU chip-hours\nconsumed and are not billed for worker CPU and memory. For more information, see\nthe Dataflow [pricing page](/dataflow/pricing).\n\nAvailability\n\nThe following TPU accelerators and processing regions are available.\n\nSupported TPU accelerators\n\nThe supported TPU accelerator combinations are identified by the tuple (TPU\ntype, TPU topology).\n\n- **TPU type** refers to the model of the TPU device.\n- **TPU topology** refers to the number and physical arrangement of the TPU chips in a slice.\n\nTo configure the type and topology of TPUs for Dataflow workers,\nuse the [`worker_accelerator` pipeline\noption](/dataflow/docs/reference/service-options) formatted as\n`type:TPU_TYPE;topology:TPU_TOPOLOGY`.\n\nThe following TPU configurations are supported with Dataflow:\n\n| TPU type | Topology | Required `worker_machine_type` |\n|----------------------|----------|--------------------------------|\n| tpu-v5-lite-podslice | 1x1 | ct5lp-hightpu-1t |\n| tpu-v5-lite-podslice | 2x2 | ct5lp-hightpu-4t |\n| tpu-v5-lite-podslice | 2x4 | ct5lp-hightpu-8t |\n| tpu-v6e-slice | 1x1 | ct6e-standard-1t |\n| tpu-v6e-slice | 2x2 | ct6e-standard-4t |\n| tpu-v6e-slice | 2x4 | ct6e-standard-8t |\n| tpu-v5p-slice | 2x2x1 | ct5p-hightpu-4t |\n\nRegions\n\nFor information about available regions and zones for TPUs, see [TPU regions and\nzones](/tpu/docs/regions-zones) in the Cloud TPU documentation.\n\nWhat's next\n\n- Learn how to [run an Apache Beam pipeline on Dataflow with\n TPUs](/dataflow/docs/tpu/use-tpus).\n- Learn how to [troubleshoot your Dataflow TPU\n job](/dataflow/docs/tpu/troubleshoot-tpus)."]]