Ejecuta MNIST en Cloud TPU (TF 2.x)


Este instructivo contiene una descripción de nivel alto del modelo MNIST, instrucciones sobre cómo descargar la muestra de código de TPU de TensorFlow de MNIST y una guía para ejecutar el código en Cloud TPU.

Renuncia de responsabilidad

En este instructivo se utiliza un conjunto de datos de terceros. Google no hace declaraciones, garantía u otras garantías acerca de la validez o cualquier otro aspecto de este de tu conjunto de datos.

Descripción del modelo

El conjunto de datos MNIST contiene una gran cantidad de imágenes de dígitos escritos a mano en el intervalo de 0 a 9, así como las etiquetas que identifican dígito en cada imagen.

En este instructivo, se entrena un modelo de aprendizaje automático para clasificar imágenes según conjunto de datos de MNIST. Después del entrenamiento, el modelo clasifica las imágenes entrantes en 10 categorías (0 a 9) según lo aprendido sobre imágenes escritas a mano de conjunto de datos MNIST. Luego, puedes enviarle al modelo una imagen que no haya visto. antes, y el modelo identifica el dígito de la imagen según lo que aprendido durante el entrenamiento.

El conjunto de datos MNIST se divide en tres partes:

  • 60,000 ejemplos de datos de entrenamiento
  • 10,000 ejemplos de datos de prueba
  • 5,000 ejemplos de datos de validación

El modelo tiene una mezcla de siete capas:

  • 2 de convolución
  • 2 de agrupación máxima
  • 2 de densidad (totalmente conectadas)
  • 1 de abandono

La pérdida se calcula con la entropía cruzada categórica.

Esta versión del modelo MNIST usa la API de Keras, una forma recomendada de compilar y ejecutar un modelo de aprendizaje automático en una Cloud TPU.

Keras simplifica el proceso de desarrollo del modelo, ya que oculta la mayoría de las partes que también te permite cambiar entre TPU y otras plataformas de prueba como GPU o CPU.

Objetivos

  • Crear un bucket de Cloud Storage para almacenar el resultado de tu modelo y tu conjunto de datos
  • Ejecutar el trabajo de entrenamiento
  • Verificar los resultados de salida

Costos

En este documento, usarás los siguientes componentes facturables de Google Cloud:

  • Compute Engine
  • Cloud TPU
  • Cloud Storage

Para generar una estimación de costos en función del uso previsto, usa la calculadora de precios. Es posible que los usuarios nuevos de Google Cloud califiquen para obtener una prueba gratuita.

Antes de comenzar

En esta sección, se proporciona información sobre cómo configurar el bucket de Cloud Storage y una VM de Compute Engine.

  1. Abre una ventana de Cloud Shell.

    Abrir Cloud Shell

  2. Crea una variable para el ID de tu proyecto.

    export PROJECT_ID=project-id
    
  3. Configura Google Cloud CLI para usar el proyecto en el que quieres crear Cloud TPU

    gcloud config set project ${PROJECT_ID}
    

    La primera vez que ejecutes este comando en una VM de Cloud Shell nueva, se mostrará la página Authorize Cloud Shell. Haz clic en Authorize en la parte inferior. de la página para permitir que gcloud realice llamadas a la API de Google Cloud con tus credenciales.

  4. Crea una cuenta de servicio para el proyecto de Cloud TPU.

    gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
    

    El comando muestra una cuenta de servicio de Cloud TPU con el siguiente formato:

    service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
    

  5. Crea un bucket de Cloud Storage con el siguiente comando:

    gcloud storage buckets create gs://bucket-name \
    --project=${PROJECT_ID} \
    --location=us-central1
    

    En este bucket de Cloud Storage se almacenan los datos que usas para entrenar tu modelo y los resultados del entrenamiento. El comando gcloud que se usa en este instructivo configura permisos predeterminados para la cuenta de servicio de Cloud TPU que configuraste en la paso anterior. Si quieres contar con permisos más detallados, revisa los permisos de nivel de acceso.

  6. Crea una VM de TPU con el comando gcloud.

    $ gcloud compute tpus tpu-vm create mnist-tutorial \
       --zone=us-central1-b \
       --accelerator-type=v3-8 \
       --version=tpu-vm-tf-2.17.0-pjrt \
     

    Descripciones de las marcas de comandos

    zone
    Es la zona en la que deseas crear la Cloud TPU.

    accelerator-type
    El tipo de acelerador especifica la versión y el tamaño de la Cloud TPU que deseas crear. Para obtener más información sobre los tipos de aceleradores compatibles con cada versión de TPU, consulta Versiones de TPU.

    version
    La versión de software de Cloud TPU.

    Para obtener más información sobre el comando de gcloud, consulta la Referencia de gcloud.

  7. Conectarse a la instancia de Compute Engine mediante SSH Cuando estés conectado a la VM, el símbolo del sistema de shell cambia de username@projectname a username@vm-name:

    gcloud compute tpus tpu-vm ssh mnist-tutorial --zone=us-central1-b
    
  8. Crea una variable de entorno para el nombre de la TPU.

    (vm)$ export TPU_NAME=local
    
  9. Instala los requisitos de TensorFlow.

    (vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt
    

Entrenar el modelo

El código fuente del modelo de TPU MNIST también está disponible en GitHub.

  1. Configura las siguientes variables: Reemplaza bucket-name por el nombre de tu depósito:

    (vm)$ export STORAGE_BUCKET=gs://bucket-name
    (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/mnist
    (vm)$ export DATA_DIR=${STORAGE_BUCKET}/data
    
  2. Configura la variable de entorno PYTHONPATH.

    (vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/tpu/models"
    
  3. Cuando creas tu TPU, si estableces el parámetro --version en una versión que termina en -pjrt, establece las siguientes variables de entorno para habilitar el entorno de ejecución de PJRT:

      (vm)$ export NEXT_PLUGGABLE_DEVICE_USE_C_API=true
      (vm)$ export TF_PLUGGABLE_DEVICE_LIBRARY_PATH=/lib/libtpu.so
    
  4. Ve al directorio en el que se almacena el modelo:

    (vm)$ cd /usr/share/tpu/models/official/legacy/image_classification
    
  5. Ejecuta la secuencia de comandos de entrenamiento de MNIST:

    (vm)$ python3 mnist_main.py \
      --tpu=${TPU_NAME} \
      --model_dir=${MODEL_DIR} \
      --data_dir=${DATA_DIR} \
      --train_epochs=10 \
      --distribution_strategy=tpu \
      --download
    

    Descripciones de las marcas de comandos

    tpu
    El nombre de Cloud TPU. Si no se especifica durante la configuración la VM de Compute Engine y Cloud TPU, de forma predeterminada a tu nombre de usuario.
    model_dir
    El bucket de Cloud Storage en el que se encuentran los puntos de control y los resúmenes almacenados durante el entrenamiento. Puedes usar una carpeta existente para cargar archivos puntos de control generados en una TPU del mismo tamaño y en TensorFlow versión.
    data_dir
    La ruta de entrada de entrenamiento en Cloud Storage. Se establece en el fake_imagenet en este ejemplo.
    train_epochs
    La cantidad de ciclos de entrenamiento para entrenar el modelo.
    distribution_strategy
    Para entrenar el modelo ResNet en una Cloud TPU, configura distribution_strategy a tpu.
    download
    Cuando se establece en true, la secuencia de comandos descarga y realiza un procesamiento previo el conjunto de datos MNIST, si aún no se ha descargado.

La secuencia de comandos de entrenamiento se ejecuta en menos de 5 minutos en una Cloud TPU v3-8 y muestra un resultado similar al siguiente:

Run stats:
{
  'accuracy_top_1': 0.9762369990348816,
  'eval_loss': 0.07863274961709976,
  'loss': 0.1111728847026825,
  'training_accuracy_top_1': 0.966645359992981
}

Limpia

Para evitar que se apliquen cargos a tu cuenta de Google Cloud por los recursos usados en este instructivo, borra el proyecto que contiene los recursos o conserva el proyecto y borra los recursos individuales.

  1. Desconéctate de la instancia de Compute Engine, si aún no lo hiciste:

    (vm)$ exit
    

    El mensaje ahora debería mostrar username@projectname, que indica que estás en Cloud Shell.

  2. Borra tus recursos de Cloud TPU y Compute Engine.

    $ gcloud compute tpus tpu-vm delete mnist-tutorial \
      --zone=us-central1-b
    
  3. Ejecuta gcloud compute tpus tpu-vm list para verificar que los recursos se hayan borrado. La eliminación puede tardar varios minutos. El resultado del siguiente comando no debe incluir ninguno de los recursos creados en este instructivo:

    $ gcloud compute tpus tpu-vm list --zone=us-central1-b
  4. Borra tu bucket de Cloud Storage con el siguiente comando. Reemplazar bucket-name por el nombre del bucket de Cloud Storage

    $ gcloud storage rm gs://bucket-name --recursive
    

¿Qué sigue?

Los instructivos de TensorFlow Cloud TPU suelen entrenar el modelo con un conjunto de datos de muestra. Los resultados de este entrenamiento no se pueden usar para la inferencia. Para usar un modelo para inferencia, puedes entrenar los datos en un modelo conjunto de datos o uno propio. Modelos de TensorFlow entrenados con Cloud TPU generalmente requieren que los conjuntos de datos estén TFRecord.

Puedes usar la herramienta de conversión de conjuntos de datos muestra para convertir una imagen de clasificación de datos en formato TFRecord. Si no usas una imagen de clasificación de datos, tendrás que convertir tu conjunto de datos a Formato TFRecord tú mismo. Para obtener más información, consulta TFRecord y tf.Example

Ajuste de hiperparámetros

Para mejorar el rendimiento del modelo con tu conjunto de datos, puedes ajustar la hiperparámetros. Puedes encontrar información sobre los hiperparámetros comunes a todos Los modelos compatibles con TPU en GitHub: La información sobre los hiperparámetros específicos del modelo se puede encontrar en la fuente de la aplicación para cada un modelo de responsabilidad compartida. Para obtener más información sobre el ajuste de hiperparámetros, consulta Descripción general de ajuste de hiperparámetros y ajustes hiperparámetros.

Inferencia

Una vez que hayas entrenado tu modelo, puedes usarlo para inferencias (también denominado predicciones). Puedes usar el conversor de inferencia de Cloud TPU de desarrollo de software para preparar y optimizar un Modelo de TensorFlow para inferencias en Cloud TPU v5e. Para ver más información sobre la inferencia en Cloud TPU v5e, consulta Inferencia de Cloud TPU v5e introducción.