Questions fréquentes – Cloud TPU

Ce document contient une liste de questions fréquentes sur les Cloud TPU. Il se compose de sections:

  1. Questions fréquentes indépendantes du framework : questions sur l'utilisation des Cloud TPU, quel que soit le framework de ML que vous utilisez.
  2. Questions fréquentes sur JAX : questions sur l'utilisation des Cloud TPU avec JAX.
  3. Questions fréquentes sur PyTorch : questions sur l'utilisation de Cloud TPU avec PyTorch.

Questions fréquentes indépendantes du framework

Comment savoir quel processus utilise le TPU sur une VM Cloud TPU ?

Exécutez sudo lsof -w /dev/accel* sur la VM Cloud TPU pour imprimer l'ID de processus et d'autres informations sur le processus à l'aide du TPU.

Comment ajouter un volume de disque persistant à une VM Cloud TPU ?

Pour en savoir plus, consultez Ajouter un disque persistant à une VM TPU.

Quelles options de stockage sont compatibles/recommandées pour l'entraînement avec une VM TPU ?

Pour en savoir plus, consultez la section Options de stockage Cloud TPU.

Questions fréquentes sur JAX

Comment savoir si le TPU est utilisé par mon programme ?

Il existe plusieurs façons de vérifier que JAX utilise le TPU:

  1. Utilisez la fonction jax.devices(). Exemple :

    assert jax.devices()[0].platform == 'tpu'
    
  2. Profiler votre programme et vérifier qu'il contient des opérations TPU Pour en savoir plus, consultez la page Profiler des programmes JAX.

Pour en savoir plus, consultez les questions fréquentes sur JAX.

Questions fréquentes sur PyTorch

Comment savoir si le TPU est utilisé par mon programme ?

Vous pouvez exécuter les commandes Python suivantes:

>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")

Vérifiez si vous voyez des appareils TPU.