Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Google Cloud Les TPU sont des accélérateurs d'IA conçus sur mesure par Google, optimisés pour l'entraînement et l'utilisation de grands modèles d'IA. Ils sont conçus pour évoluer de manière rentable pour un large éventail de charges de travail d'IA et offrent la polyvalence nécessaire pour accélérer les charges de travail d'inférence sur les frameworks d'IA, y compris PyTorch, JAX et TensorFlow. Pour en savoir plus sur les TPU, consultez la Présentation desGoogle Cloud TPU.
Conditions préalables à l'utilisation de TPU dans Dataflow
Vos projets Google Cloud doivent être approuvés pour utiliser cette offre en disponibilité générale.
Limites
Cette offre est soumise aux limites suivantes :
Seuls les accélérateurs TPU à hôte unique sont acceptés : l'offre Dataflow TPU n'accepte que les configurations TPU à hôte unique, où chaque nœud de calcul Dataflow gère un ou plusieurs appareils TPU qui ne sont pas interconnectés avec les TPU gérés par d'autres nœuds de calcul.
Seuls les pools de nœuds de calcul TPU homogènes sont compatibles : les fonctionnalités telles que l'adaptation des ressources Dataflow et Dataflow Prime ne sont pas compatibles avec les charges de travail TPU.
Tarifs
Les jobs Dataflow qui utilisent des TPU sont facturés en fonction des heures-puce de TPU consommées par les nœuds de calcul. Le processeur et la mémoire des nœuds de calcul ne sont pas facturés. Pour en savoir plus, consultez la page des tarifs de Dataflow.
Disponibilité
Les accélérateurs TPU et les régions de traitement suivants sont disponibles.
Accélérateurs TPU compatibles
Les combinaisons d'accélérateurs TPU compatibles sont identifiées par le tuple (type de TPU, topologie TPU).
Le type de TPU fait référence au modèle de l'appareil TPU.
La topologie de TPU fait référence au nombre et à la disposition physique des puces TPU dans une tranche.
Pour configurer le type et la topologie des TPU pour les nœuds de calcul Dataflow, utilisez l'option de pipeline worker_accelerator au format type:TPU_TYPE;topology:TPU_TOPOLOGY.
Les configurations de TPU suivantes sont compatibles avec Dataflow :
Type de TPU
Topologie
Obligation de fournir worker_machine_type
tpu-v5-lite-podslice
1x1
ct5lp-hightpu-1t
tpu-v5-lite-podslice
2x2
ct5lp-hightpu-4t
tpu-v5-lite-podslice
2x4
ct5lp-hightpu-8t
tpu-v6e-slice
1x1
ct6e-standard-1t
tpu-v6e-slice
2x2
ct6e-standard-4t
tpu-v6e-slice
2x4
ct6e-standard-8t
tpu-v5p-slice
2x2x1
ct5p-hightpu-4t
Régions
Pour en savoir plus sur les régions et zones disponibles pour les TPU, consultez Régions et zones TPU dans la documentation Cloud TPU.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[],[],null,["| **Note:** The Dataflow TPU offering is generally available with an allowlist. To get access to this feature, reach out to your account team.\n\nGoogle Cloud TPUs are custom-designed AI accelerators created by Google that are\noptimized for training and using of large AI models. They are designed to\nscale cost-efficiently for a wide range of AI workloads and provide versatility\nto accelerate inference workloads on AI frameworks, including PyTorch, JAX, and\nTensorFlow. For more details about TPUs, see [Introduction to\nGoogle Cloud TPU](/tpu/docs/intro-to-tpu).\n\nPrerequisites for using TPUs in Dataflow\n\n- Your Google Cloud projects must be approved to use this GA offering.\n\nLimitations\n\nThis offering is subject to the following limitations:\n\n- **Only single-host TPU accelerators are supported**: The Dataflow TPU offering supports only single-host TPU configurations where each Dataflow worker manages one or many TPU devices that are not interconnected with TPUs managed by other workers.\n- **Only homogenous TPU worker pools are supported**: Features like Dataflow right fitting and Dataflow Prime don't support TPU workloads.\n\nPricing\n\nDataflow jobs that use TPUs are billed for worker TPU chip-hours\nconsumed and are not billed for worker CPU and memory. For more information, see\nthe Dataflow [pricing page](/dataflow/pricing).\n\nAvailability\n\nThe following TPU accelerators and processing regions are available.\n\nSupported TPU accelerators\n\nThe supported TPU accelerator combinations are identified by the tuple (TPU\ntype, TPU topology).\n\n- **TPU type** refers to the model of the TPU device.\n- **TPU topology** refers to the number and physical arrangement of the TPU chips in a slice.\n\nTo configure the type and topology of TPUs for Dataflow workers,\nuse the [`worker_accelerator` pipeline\noption](/dataflow/docs/reference/service-options) formatted as\n`type:TPU_TYPE;topology:TPU_TOPOLOGY`.\n\nThe following TPU configurations are supported with Dataflow:\n\n| TPU type | Topology | Required `worker_machine_type` |\n|----------------------|----------|--------------------------------|\n| tpu-v5-lite-podslice | 1x1 | ct5lp-hightpu-1t |\n| tpu-v5-lite-podslice | 2x2 | ct5lp-hightpu-4t |\n| tpu-v5-lite-podslice | 2x4 | ct5lp-hightpu-8t |\n| tpu-v6e-slice | 1x1 | ct6e-standard-1t |\n| tpu-v6e-slice | 2x2 | ct6e-standard-4t |\n| tpu-v6e-slice | 2x4 | ct6e-standard-8t |\n| tpu-v5p-slice | 2x2x1 | ct5p-hightpu-4t |\n\nRegions\n\nFor information about available regions and zones for TPUs, see [TPU regions and\nzones](/tpu/docs/regions-zones) in the Cloud TPU documentation.\n\nWhat's next\n\n- Learn how to [run an Apache Beam pipeline on Dataflow with\n TPUs](/dataflow/docs/tpu/use-tpus).\n- Learn how to [troubleshoot your Dataflow TPU\n job](/dataflow/docs/tpu/troubleshoot-tpus)."]]