Compatibilité de Dataflow avec les TPU

Google Cloud Les TPU sont des accélérateurs d'IA conçus sur mesure par Google, optimisés pour l'entraînement et l'utilisation de grands modèles d'IA. Ils sont conçus pour évoluer de manière rentable pour un large éventail de charges de travail d'IA et offrent la polyvalence nécessaire pour accélérer les charges de travail d'inférence sur les frameworks d'IA, y compris PyTorch, JAX et TensorFlow. Pour en savoir plus sur les TPU, consultez la Présentation desGoogle Cloud TPU.

Conditions préalables à l'utilisation de TPU dans Dataflow

  • Vos projets Google Cloud doivent être approuvés pour utiliser cette offre en disponibilité générale.

Limites

Cette offre est soumise aux limites suivantes :

  • Seuls les accélérateurs TPU à hôte unique sont acceptés : l'offre Dataflow TPU n'accepte que les configurations TPU à hôte unique, où chaque nœud de calcul Dataflow gère un ou plusieurs appareils TPU qui ne sont pas interconnectés avec les TPU gérés par d'autres nœuds de calcul.
  • Seuls les pools de nœuds de calcul TPU homogènes sont compatibles : les fonctionnalités telles que l'adaptation des ressources Dataflow et Dataflow Prime ne sont pas compatibles avec les charges de travail TPU.

Tarifs

Les jobs Dataflow qui utilisent des TPU sont facturés en fonction des heures-puce de TPU consommées par les nœuds de calcul. Le processeur et la mémoire des nœuds de calcul ne sont pas facturés. Pour en savoir plus, consultez la page des tarifs de Dataflow.

Disponibilité

Les accélérateurs TPU et les régions de traitement suivants sont disponibles.

Accélérateurs TPU compatibles

Les combinaisons d'accélérateurs TPU compatibles sont identifiées par le tuple (type de TPU, topologie TPU).

  • Le type de TPU fait référence au modèle de l'appareil TPU.
  • La topologie de TPU fait référence au nombre et à la disposition physique des puces TPU dans une tranche.

Pour configurer le type et la topologie des TPU pour les nœuds de calcul Dataflow, utilisez l'option de pipeline worker_accelerator au format type:TPU_TYPE;topology:TPU_TOPOLOGY.

Les configurations de TPU suivantes sont compatibles avec Dataflow :

Type de TPU Topologie Obligation de fournir worker_machine_type
tpu-v5-lite-podslice 1x1 ct5lp-hightpu-1t
tpu-v5-lite-podslice 2x2 ct5lp-hightpu-4t
tpu-v5-lite-podslice 2x4 ct5lp-hightpu-8t
tpu-v6e-slice 1x1 ct6e-standard-1t
tpu-v6e-slice 2x2 ct6e-standard-4t
tpu-v6e-slice 2x4 ct6e-standard-8t
tpu-v5p-slice 2x2x1 ct5p-hightpu-4t

Régions

Pour en savoir plus sur les régions et zones disponibles pour les TPU, consultez Régions et zones TPU dans la documentation Cloud TPU.

Étapes suivantes