Questions fréquentes – Cloud TPU

Ce document contient une liste de questions fréquentes sur les Cloud TPU. Il se compose de sections :

  1. Questions fréquentes indépendantes du framework : questions sur l'utilisation des Cloud TPU, quel que soit le framework de ML que vous utilisez.
  2. FAQ JAX : questions sur l'utilisation des Cloud TPU avec JAX.
  3. Questions fréquentes sur PyTorch : questions sur l'utilisation de Cloud TPU avec PyTorch.

Questions fréquentes sur les différents frameworks

Comment savoir quel processus utilise TPU sur une VM Cloud TPU ?

Exécutez sudo lsof -w /dev/accel* sur la VM Cloud TPU pour imprimer l'ID de processus et d'autres informations sur le processus à l'aide du TPU.

Comment ajouter un volume de disque persistant à une VM Cloud TPU ?

Pour en savoir plus, consultez la section Ajouter un disque persistant à une VM TPU.

Quelles options de stockage sont compatibles/recommandées pour l'entraînement avec une VM TPU ?

Pour en savoir plus, consultez la page Options de stockage Cloud TPU.

Questions fréquentes sur JAX

Comment savoir si mon programme utilise le TPU ?

Il existe plusieurs façons de vérifier que JAX utilise le TPU:

  1. Utilisez la fonction jax.devices(). Exemple :

    assert jax.devices()[0].platform == 'tpu'
    
  2. Profilez votre programme et vérifiez que le profil contient des opérations TPU. Pour plus consultez la page Profiler des programmes JAX.

Pour en savoir plus, consultez les questions fréquentes sur JAX.

Questions fréquentes sur PyTorch

Comment savoir si mon programme utilise le TPU ?

Vous pouvez exécuter les commandes Python suivantes :

>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")

Vérifiez si vous voyez des appareils TPU.