En este instructivo, se muestra cómo entrenar el modelo ResNet-50 en un dispositivo Cloud TPU con PyTorch. Puedes aplicar el mismo patrón a otros modelos de clasificación de imágenes optimizados con TPU que usen PyTorch y el conjunto de datos ImageNet.
El modelo de este instructivo se basa en Aprendizaje residual profundo para el reconocimiento de imágenes, que presentó por primera vez la arquitectura de la red residual (ResNet). En el instructivo, se usa la variante de 50 capas, ResNet-50, y se muestra cómo entrenar el modelo con PyTorch/XLA.
Objetivos
- Preparar el conjunto de datos
- Ejecutar el trabajo de entrenamiento
- Verificar los resultados de salida
Costos
En este documento, usarás los siguientes componentes facturables de Google Cloud:
- Compute Engine
- Cloud TPU
Para generar una estimación de costos en función del uso previsto, usa la calculadora de precios.
Antes de comenzar
Antes de comenzar este instructivo, verifica que tu proyecto de Google Cloud esté configurado correctamente.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
En esta explicación, se usan componentes facturables de Google Cloud. Consulta la página de precios de Cloud TPU para calcular los costos. Asegúrate de limpiar los recursos que creaste cuando hayas terminado de usarlos para evitar cargos innecesarios.
Crea una VM de TPU
Abre una ventana de Cloud Shell.
Crea una VM de TPU
gcloud compute tpus tpu-vm create your-tpu-name \ --accelerator-type=v4-8 \ --version=tpu-ubuntu2204-base \ --zone=us-central2-b \ --project=your-project
Conéctate a tu VM de TPU con SSH:
gcloud compute tpus tpu-vm ssh your-tpu-name --zone=us-central2-b
Instala PyTorch/XLA en tu VM de TPU:
(vm)$ pip install torch~=2.4.0 torch_xla[tpu]~=2.4.0 torchvision -f https://storage.googleapis.com/libtpu-releases/index.html
Clona el repositorio de GitHub de PyTorch/XLA
(vm)$ git clone --depth=1 --branch r2.4 https://github.com/pytorch/xla.git
Ejecuta la secuencia de comandos de entrenamiento con datos falsos
(vm) $ PJRT_DEVICE=TPU python3 xla/test/test_train_mp_imagenet.py --fake_data --batch_size=256 --num_epochs=1
Si puedes entrenar el modelo con datos falsos, puedes intentar entrenar con datos reales, como ImageNet. Para obtener instrucciones sobre cómo descargar ImageNet, consulta
Descarga ImageNet. En el comando de secuencia de comandos de entrenamiento,
La marca --datadir
especifica la ubicación del conjunto de datos en el que se entrenará.
En el siguiente comando, se supone que el conjunto de datos de ImageNet se encuentra en ~/imagenet
.
(vm) $ PJRT_DEVICE=TPU python3 xla/test/test_train_mp_imagenet.py --datadir=~/imagenet --batch_size=256 --num_epochs=1
Limpia
Para evitar que se apliquen cargos a tu cuenta de Google Cloud por los recursos usados en este instructivo, borra el proyecto que contiene los recursos o conserva el proyecto y borra los recursos individuales.
Desconéctate de la VM de TPU:
(vm) $ exit
El mensaje ahora debería mostrar
username@projectname
, que indica que estás en Cloud Shell.Borra la VM de TPU.
$ gcloud compute tpus tpu-vm delete resnet50-tutorial \ --zone=us-central2-b
¿Qué sigue?
- Entrena modelos de difusión con Pytorch
- Soluciona problemas de Pytorch en TPU
- Documentación de Pytorch/XLA