Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Google Cloud Las TPU son aceleradores de IA con diseño personalizado creados por Google que están optimizados para el entrenamiento y el uso de modelos de IA grandes. Están diseñadas para escalar de manera rentable en una amplia variedad de cargas de trabajo de IA y proporcionan versatilidad para acelerar las cargas de trabajo de inferencia en frameworks de IA, como PyTorch, JAX y TensorFlow. Para obtener más detalles sobre las TPU, consulta Introducción a las
Google Cloud TPU.
Requisitos previos para usar TPUs en Dataflow
Tus proyectos Google Cloud deben estar aprobados para usar esta oferta de GA.
Limitaciones
Esta oferta está sujeta a las siguientes limitaciones:
Solo se admiten aceleradores de TPU de host único: La oferta de TPU de Dataflow solo admite configuraciones de TPU de host único en las que cada trabajador de Dataflow administra uno o varios dispositivos de TPU que no están interconectados con las TPU administradas por otros trabajadores.
Solo se admiten grupos de trabajador TPU homogéneos: Las funciones como el ajuste adecuado de Dataflow y Dataflow Prime no admiten cargas de trabajo de TPU.
Precios
Los trabajos de Dataflow que usan TPU se facturan por las horas de chip de TPU de los trabajadores consumidas y no se facturan por la CPU ni la memoria de los trabajadores. Para obtener más información, consulta la página de precios de Dataflow.
Disponibilidad
Están disponibles los siguientes aceleradores de TPU y regiones de procesamiento.
Aceleradores de TPU compatibles
Las combinaciones de aceleradores de TPU admitidas se identifican con la tupla (tipo de TPU, topología de TPU).
El tipo de TPU hace referencia al modelo del dispositivo de TPU.
La topología de TPU hace referencia a la cantidad y la disposición física de los chips TPU en una porción.
Para configurar el tipo y la topología de las TPU para los trabajadores de Dataflow, usa la opción de canalización worker_accelerator con el formato type:TPU_TYPE;topology:TPU_TOPOLOGY.
Las siguientes configuraciones de TPU son compatibles con Dataflow:
Tipo de TPU
Topología
Se requiere worker_machine_type
tpu-v5-lite-podslice
1x1
ct5lp-hightpu-1t
tpu-v5-lite-podslice
2x2
ct5lp-hightpu-4t
tpu-v5-lite-podslice
2x4
ct5lp-hightpu-8t
tpu-v6e-slice
1x1
ct6e-standard-1t
tpu-v6e-slice
2x2
ct6e-standard-4t
tpu-v6e-slice
2x4
ct6e-standard-8t
tpu-v5p-slice
2x2x1
ct5p-hightpu-4t
Regiones
Para obtener información sobre las regiones y zonas disponibles para las TPU, consulta Regiones y zonas de TPU en la documentación de Cloud TPU.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[],[],null,["| **Note:** The Dataflow TPU offering is generally available with an allowlist. To get access to this feature, reach out to your account team.\n\nGoogle Cloud TPUs are custom-designed AI accelerators created by Google that are\noptimized for training and using of large AI models. They are designed to\nscale cost-efficiently for a wide range of AI workloads and provide versatility\nto accelerate inference workloads on AI frameworks, including PyTorch, JAX, and\nTensorFlow. For more details about TPUs, see [Introduction to\nGoogle Cloud TPU](/tpu/docs/intro-to-tpu).\n\nPrerequisites for using TPUs in Dataflow\n\n- Your Google Cloud projects must be approved to use this GA offering.\n\nLimitations\n\nThis offering is subject to the following limitations:\n\n- **Only single-host TPU accelerators are supported**: The Dataflow TPU offering supports only single-host TPU configurations where each Dataflow worker manages one or many TPU devices that are not interconnected with TPUs managed by other workers.\n- **Only homogenous TPU worker pools are supported**: Features like Dataflow right fitting and Dataflow Prime don't support TPU workloads.\n\nPricing\n\nDataflow jobs that use TPUs are billed for worker TPU chip-hours\nconsumed and are not billed for worker CPU and memory. For more information, see\nthe Dataflow [pricing page](/dataflow/pricing).\n\nAvailability\n\nThe following TPU accelerators and processing regions are available.\n\nSupported TPU accelerators\n\nThe supported TPU accelerator combinations are identified by the tuple (TPU\ntype, TPU topology).\n\n- **TPU type** refers to the model of the TPU device.\n- **TPU topology** refers to the number and physical arrangement of the TPU chips in a slice.\n\nTo configure the type and topology of TPUs for Dataflow workers,\nuse the [`worker_accelerator` pipeline\noption](/dataflow/docs/reference/service-options) formatted as\n`type:TPU_TYPE;topology:TPU_TOPOLOGY`.\n\nThe following TPU configurations are supported with Dataflow:\n\n| TPU type | Topology | Required `worker_machine_type` |\n|----------------------|----------|--------------------------------|\n| tpu-v5-lite-podslice | 1x1 | ct5lp-hightpu-1t |\n| tpu-v5-lite-podslice | 2x2 | ct5lp-hightpu-4t |\n| tpu-v5-lite-podslice | 2x4 | ct5lp-hightpu-8t |\n| tpu-v6e-slice | 1x1 | ct6e-standard-1t |\n| tpu-v6e-slice | 2x2 | ct6e-standard-4t |\n| tpu-v6e-slice | 2x4 | ct6e-standard-8t |\n| tpu-v5p-slice | 2x2x1 | ct5p-hightpu-4t |\n\nRegions\n\nFor information about available regions and zones for TPUs, see [TPU regions and\nzones](/tpu/docs/regions-zones) in the Cloud TPU documentation.\n\nWhat's next\n\n- Learn how to [run an Apache Beam pipeline on Dataflow with\n TPUs](/dataflow/docs/tpu/use-tpus).\n- Learn how to [troubleshoot your Dataflow TPU\n job](/dataflow/docs/tpu/troubleshoot-tpus)."]]