Perguntas frequentes: Cloud TPU
Este documento contém uma lista de perguntas frequentes sobre os Cloud TPUs. Ela é dividida em seções:
- Perguntas frequentes independentes do framework: perguntas sobre o uso de Cloud TPUs independente do framework de ML que você está usando.
- Perguntas frequentes sobre o JAX: perguntas sobre o uso de Cloud TPUs com o JAX.
- Perguntas frequentes sobre o PyTorch: perguntas sobre o uso de TPUs do Cloud com o PyTorch.
Perguntas frequentes independentes do framework
Como verificar qual processo está usando a TPU em uma VM do Cloud TPU?
Execute sudo lsof -w /dev/accel*
na VM do Cloud TPU para imprimir o ID do processo e
outras informações sobre o processo usando o TPU.
Como adicionar um volume de disco permanente a uma VM do Cloud TPU?
Para mais informações, consulte Adicionar um disco permanente a uma VM de TPU.
Quais opções de armazenamento são compatíveis/recomendadas para treinamento com VM TPU?
Para mais informações, consulte Opções de armazenamento do Cloud TPU.
Perguntas frequentes sobre o JAX
Como saber se a TPU está sendo usada pelo meu programa?
Há algumas maneiras de verificar se o JAX está usando a TPU:
Use a função
jax.devices()
. Exemplo:assert jax.devices()[0].platform == 'tpu'
Crie o perfil do programa e verifique se ele contém operações de TPU. Para mais informações, consulte Como criar perfis de programas JAX.
Para mais informações, consulte as Perguntas frequentes sobre o JAX.
Perguntas frequentes sobre o Pytorch
Como saber se a TPU está sendo usada pelo meu programa?
Você pode executar os seguintes comandos do Python:
>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")
E verifique se você consegue encontrar dispositivos TPU.