Este instructivo contiene una descripción de nivel alto del modelo MNIST, instrucciones sobre cómo descargar la muestra de código de TPU de TensorFlow de MNIST y una guía para ejecutar el código en Cloud TPU.
Renuncia de responsabilidad
En este instructivo se utiliza un conjunto de datos de terceros. Google no hace ninguna declaración ni presenta ninguna garantía acerca de la validez, o cualquier otro aspecto, de este conjunto de datos.
Descripción del modelo
El conjunto de datos MNIST contiene una gran cantidad de imágenes de dígitos de escritura a mano en el rango del 0 al 9, así como las etiquetas que identifican el dígito en cada imagen.
En este instructivo, se entrena un modelo de aprendizaje automático para clasificar imágenes según Conjunto de datos de MNIST. Luego del entrenamiento, el modelo clasifica las imágenes entrantes en 10 categorías (del 0 al 9) según lo aprendido sobre las imágenes de escritura a mano del conjunto de datos MNIST. Luego, puedes enviarle al modelo una imagen que no haya visto antes, y el modelo identifica el dígito según lo que aprendió durante el entrenamiento.
El conjunto de datos MNIST se divide en tres partes:
- 60,000 ejemplos de datos de entrenamiento
- 10,000 ejemplos de datos de prueba
- 5,000 ejemplos de datos de validación
El modelo tiene una mezcla de siete capas:
- 2 de convolución
- 2 de agrupación máxima
- 2 de densidad (totalmente conectadas)
- 1 de abandono
Las pérdidas se calculan con la entropía cruzada categórica.
Esta versión del modelo MNIST usa la API de Keras, una forma recomendada de compilar y ejecutar un modelo de aprendizaje automático en Cloud TPU.
Keras simplifica el proceso de desarrollo del modelo, ya que oculta la mayoría de las partes que también te permite cambiar entre TPU y otras plataformas de prueba como GPU o CPU.
Objetivos
- Crear un bucket de Cloud Storage para almacenar el resultado de tu modelo y tu conjunto de datos
- Ejecutar el trabajo de entrenamiento
- Verificar los resultados de salida
Costos
En este documento, usarás los siguientes componentes facturables de Google Cloud:
- Compute Engine
- Cloud TPU
- Cloud Storage
Para generar una estimación de costos en función del uso previsto, usa la calculadora de precios.
Antes de comenzar
En esta sección, se proporciona información sobre cómo configurar el bucket de Cloud Storage y una VM de Compute Engine.
Abre una ventana de Cloud Shell.
Crea una variable para el ID de tu proyecto.
export PROJECT_ID=project-id
Configura Google Cloud CLI para usar el proyecto en el que quieres crear Cloud TPU
gcloud config set project ${PROJECT_ID}
La primera vez que ejecutes este comando en una VM de Cloud Shell nueva, se mostrará la página
Authorize Cloud Shell
. Haz clic enAuthorize
en la parte inferior de la página para permitir quegcloud
realice llamadas a la API de Google Cloud con tus credenciales.Crea una cuenta de servicio para el proyecto de Cloud TPU.
gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
El comando muestra una cuenta de servicio de Cloud TPU con el siguiente formato:
service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
Crea un bucket de Cloud Storage con el siguiente comando:
gcloud storage buckets create gs://bucket-name \ --project=${PROJECT_ID} \ --location=us-central1
En este bucket de Cloud Storage se almacenan los datos que usas para entrenar tu modelo y los resultados del entrenamiento. El comando
gcloud
que se usa en este instructivo configura permisos predeterminados para la cuenta de servicio de Cloud TPU que configuraste en la paso anterior. Si quieres contar con permisos más detallados, revisa los permisos de nivel de acceso.Crea una VM de TPU con el comando
gcloud
.$ gcloud compute tpus tpu-vm create mnist-tutorial \ --zone=us-central1-b \ --accelerator-type=v3-8 \ --version=tpu-vm-tf-2.17.0-pjrt \
Descripciones de las marcas de comandos
zone
- Es la zona en la que deseas crear la Cloud TPU.
accelerator-type
- El tipo de acelerador especifica la versión y el tamaño de la Cloud TPU que deseas crear. Para obtener más información sobre los tipos de aceleradores compatibles con cada versión de TPU, consulta Versiones de TPU.
version
- La versión de software de Cloud TPU.
Para obtener más información sobre el comando de
gcloud
, consulta la Referencia de gcloud.Conéctate a la instancia de Compute Engine con SSH. Cuando te conectes a la VM, el indicador de shell cambiará de
username@projectname
ausername@vm-name
:gcloud compute tpus tpu-vm ssh mnist-tutorial --zone=us-central1-b
Crea una variable de entorno para el nombre de la TPU.
(vm)$ export TPU_NAME=local
Instala los requisitos de TensorFlow.
(vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt
Entrena el modelo
El código fuente del modelo de TPU MNIST también está disponible en GitHub.
Configura las siguientes variables: Reemplaza bucket-name por el nombre de tu depósito:
(vm)$ export STORAGE_BUCKET=gs://bucket-name (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/mnist (vm)$ export DATA_DIR=${STORAGE_BUCKET}/data
Configura la variable de entorno
PYTHONPATH
.(vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/tpu/models"
Cuando creas tu TPU, si estableces el parámetro
--version
en una versión que termina en-pjrt
, establece las siguientes variables de entorno para habilitar el entorno de ejecución de PJRT:(vm)$ export NEXT_PLUGGABLE_DEVICE_USE_C_API=true (vm)$ export TF_PLUGGABLE_DEVICE_LIBRARY_PATH=/lib/libtpu.so
Ve al directorio en el que se almacena el modelo:
(vm)$ cd /usr/share/tpu/models/official/legacy/image_classification
Ejecuta la secuencia de comandos de entrenamiento de MNIST:
(vm)$ python3 mnist_main.py \ --tpu=${TPU_NAME} \ --model_dir=${MODEL_DIR} \ --data_dir=${DATA_DIR} \ --train_epochs=10 \ --distribution_strategy=tpu \ --download
Descripciones de las marcas de comandos
tpu
- El nombre de Cloud TPU. Si no se especifica cuando se configuran la VM de Compute Engine y Cloud TPU, se utilizará tu nombre de usuario de forma predeterminada.
model_dir
- El bucket de Cloud Storage en el que se encuentran los puntos de control y los resúmenes almacenados durante el entrenamiento. Puedes usar una carpeta existente para cargar archivos puntos de control generados en una TPU del mismo tamaño y en TensorFlow versión.
data_dir
- La ruta de entrada de entrenamiento en Cloud Storage. Se establece en el fake_imagenet en este ejemplo.
train_epochs
- La cantidad de ciclos de entrenamiento para entrenar el modelo.
distribution_strategy
- Para entrenar el modelo ResNet en una Cloud TPU, configura
distribution_strategy
atpu
. download
- Cuando se establece en
true
, la secuencia de comandos descarga y realiza un procesamiento previo el conjunto de datos MNIST, si aún no se ha descargado.
La secuencia de comandos de entrenamiento se ejecuta en menos de 5 minutos en una Cloud TPU v3-8 y muestra un resultado similar al siguiente:
Run stats: { 'accuracy_top_1': 0.9762369990348816, 'eval_loss': 0.07863274961709976, 'loss': 0.1111728847026825, 'training_accuracy_top_1': 0.966645359992981 }
Limpia
Para evitar que se apliquen cargos a tu cuenta de Google Cloud por los recursos usados en este instructivo, borra el proyecto que contiene los recursos o conserva el proyecto y borra los recursos individuales.
Desconéctate de la instancia de Compute Engine, si aún no lo hiciste:
(vm)$ exit
El mensaje ahora debería mostrar
username@projectname
, que indica que estás en Cloud Shell.Borra tus recursos de Cloud TPU y Compute Engine.
$ gcloud compute tpus tpu-vm delete mnist-tutorial \ --zone=us-central1-b
Ejecuta
gcloud compute tpus tpu-vm list
para verificar que los recursos se hayan borrado. La eliminación puede tardar varios minutos. El resultado del siguiente comando no debe incluir ninguno de los recursos creados en este instructivo:$ gcloud compute tpus tpu-vm list --zone=us-central1-b
Borra tu bucket de Cloud Storage con el siguiente comando. Reemplaza bucket-name por el nombre de tu bucket de Cloud Storage.
$ gcloud storage rm gs://bucket-name --recursive
¿Qué sigue?
Los instructivos de TensorFlow Cloud TPU suelen entrenar el modelo con un conjunto de datos de muestra. Los resultados de este entrenamiento no se pueden usar para la inferencia. Para usar un modelo de inferencia, puedes entrenar los datos en un conjunto de datos disponible públicamente o en tu propio conjunto de datos. Por lo general, los modelos de TensorFlow entrenados en Cloud TPU requieren que los conjuntos de datos tengan el formato TFRecord.
Puedes usar la muestra de la herramienta de conversión de conjuntos de datos para convertir un conjunto de datos de clasificación de imágenes en formato TFRecord. Si no usas una imagen de clasificación de datos, tendrás que convertir tu conjunto de datos a Formato TFRecord tú mismo. Para obtener más información, consulta TFRecord y tf.Example.
Ajuste de hiperparámetros
Para mejorar el rendimiento del modelo con tu conjunto de datos, puedes ajustar la hiperparámetros. Puedes encontrar información sobre hiperparámetros comunes para todos los modelos compatibles con TPU en GitHub. La información sobre los hiperparámetros específicos del modelo se puede encontrar en el código fuente de cada modelo. Para obtener más información sobre el ajuste de hiperparámetros, consulta Descripción general del ajuste de hiperparámetros y Ajusta los hiperparámetros.
Inferencia
Una vez que entrenaste tu modelo, puedes usarlo para la inferencia (también llamada predicción). Puedes usar el conversor de inferencia de Cloud TPU de desarrollo de software para preparar y optimizar un Modelo de TensorFlow para inferencias en Cloud TPU v5e. Para ver más información sobre la inferencia en Cloud TPU v5e, consulta Inferencia de Cloud TPU v5e introducción.
- Ejecuta un colab de Cloud TPU que demuestra cómo entrenar un modelo de clasificación de imágenes con tu propio datos de imágenes.
- Explora los otros instructivos de Cloud TPU.
- Aprende a usar las herramientas de supervisión de TPU en TensorBoard.
- Verifica el rendimiento en un modelo a gran escala; para ello, ejecuta la muestra de ResNet.