Questions fréquentes – Cloud TPU

Ce document contient une liste de questions fréquentes sur les Cloud TPU. Il est divisé en sections:

  1. Questions fréquentes indépendantes du framework : questions sur l'utilisation des Cloud TPU, quel que soit le framework de ML utilisé.
  2. Questions fréquentes sur JAX : questions sur l'utilisation des Cloud TPU avec JAX.
  3. Questions fréquentes sur PyTorch : questions sur l'utilisation des Cloud TPU avec PyTorch.

Questions fréquentes indépendantes du framework

Comment vérifier quel processus utilise le TPU sur une VM Cloud TPU ?

Exécutez sudo lsof -w /dev/accel* sur la VM Cloud TPU pour imprimer l'ID du processus et d'autres informations sur le processus à l'aide du TPU.

Comment ajouter un volume de disque persistant à une VM Cloud TPU ?

Pour en savoir plus, consultez Ajouter un disque persistant à une VM TPU.

Quelles sont les options de stockage compatibles/recommandées pour l'entraînement avec une VM TPU ?

Pour en savoir plus, consultez la section Options de stockage de Cloud TPU.

Questions fréquentes sur JAX

Comment savoir si le TPU est utilisé par mon programme ?

Il existe plusieurs façons de vérifier que JAX utilise le TPU:

  1. Utilisez la fonction jax.devices(). Exemple :

    assert jax.devices()[0].platform == 'tpu'
    
  2. Profilez votre programme et vérifiez que le profil contient des opérations TPU. Pour en savoir plus, consultez Profiler des programmes JAX.

Pour en savoir plus, consultez les questions fréquentes sur JAX.

Questions fréquentes sur PyTorch

Comment savoir si le TPU est utilisé par mon programme ?

Vous pouvez exécuter les commandes Python suivantes:

>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")

Vérifiez également si vous voyez des appareils TPU.