Entraîner ResNet sur Cloud TPU (TF 2.x)


Ce tutoriel vous explique comment entraîner un modèle Keras Resnet sur Cloud TPU à l'aide de tf.distribute.TPUStrategy.

Si vous ne connaissez pas bien Cloud TPU, nous vous recommandons vivement de consulter le guide de démarrage rapide de votre framework pour apprendre à créer un TPU et une VM Compute Engine.

Objectifs

  • Créer un bucket Cloud Storage pour stocker votre ensemble de données et la sortie du modèle
  • Préparez un ensemble de données fake_imagenet, semblable à l'ensemble de données ImageNet.
  • Exécuter la tâche d'entraînement
  • Vérifier les résultats

Coûts

Dans ce document, vous utilisez les composants facturables suivants de Google Cloud :

  • Compute Engine
  • Cloud TPU
  • Cloud Storage

Obtenez une estimation des coûts en fonction de votre utilisation prévue à l'aide du simulateur de coût. Les nouveaux utilisateurs de Google Cloud peuvent bénéficier d'un essai gratuit.

Avant de commencer

Avant de commencer ce tutoriel, vérifiez que votre projet Google Cloud est correctement configuré.

  1. Connectez-vous à votre compte Google Cloud. Si vous débutez sur Google Cloud, créez un compte pour évaluer les performances de nos produits en conditions réelles. Les nouveaux clients bénéficient également de 300 $ de crédits gratuits pour exécuter, tester et déployer des charges de travail.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Make sure that billing is enabled for your Google Cloud project.

  6. Ce tutoriel utilise des composants facturables de Google Cloud. Consultez la grille tarifaire de Cloud TPU pour estimer vos coûts. Veillez à nettoyer les ressources que vous avez créées lorsque vous avez terminé, afin d'éviter des frais inutiles.

Entraînement sur un seul appareil Cloud TPU

Cette section fournit des informations sur la configuration des buckets Cloud Storage, des VM et des ressources Cloud TPU pour l'entraînement sur un seul appareil.

  1. Ouvrez une fenêtre Cloud Shell.

    Ouvrir Cloud Shell

  2. Créez une variable pour l'ID de votre projet.

    $ export PROJECT_ID=project-id
  3. Configurez la Google Cloud CLI pour utiliser le projet dans lequel vous souhaitez créer un Cloud TPU.

    $ gcloud config set project ${PROJECT_ID}

    La première fois que vous exécutez cette commande dans une nouvelle VM Cloud Shell, une page Authorize Cloud Shell s'affiche. Cliquez sur Authorize en bas de la page. de la page pour permettre à gcloud d'effectuer des appels d'API avec vos identifiants.

  4. Créez un compte de service pour le projet Cloud TPU.

    Les comptes de service permettent au service Cloud TPU d'accéder à d'autres services Google Cloud.

    $ gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID

    La commande renvoie un compte de service Cloud TPU au format suivant :

    service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
    

  5. Créez un bucket Cloud Storage à l'aide de la commande suivante :

    $ gcloud storage buckets create gs://bucket-name --project=${PROJECT_ID} --location=us-central2

    Ce bucket Cloud Storage stocke les données que vous utilisez pour entraîner votre modèle, ainsi que les résultats de l'entraînement. La commande gcloud utilisée dans ce tutoriel pour configurer le TPU configure également les autorisations par défaut du compte de service Cloud TPU que vous avez configuré à l'étape précédente. Si vous souhaitez utiliser des autorisations plus précises, vérifiez les autorisations de niveau d'accès.

  6. Préparez votre ensemble de données ou utilisez fake_imagenet.

    ImageNet est une base de données d'images. Les images de la base de données sont organisées en une hiérarchie, chaque nœud de la hiérarchie étant représenté par des centaines et des milliers d'images.

    Ce tutoriel utilise une version de démonstration de l'ensemble de données complet ImageNet, appelée fake_imagenet. Cette version de démonstration vous permet de tester le tutoriel tout en réduisant les conditions de stockage et le temps généralement nécessaires à l'exécution d'un modèle par rapport à la base de données complète ImageNet.

    L'ensemble de données fake_imagenet se trouve à cet emplacement sur Cloud Storage :

    gs://cloud-tpu-test-datasets/fake_imagenet

    Notez que l'ensemble de données fake_imagenet n'est utile que pour comprendre comment utiliser un Cloud TPU et valider les performances de bout en bout. La précision et le modèle enregistré ne sont pas représentatifs.

    Si vous souhaitez utiliser l'ensemble de données complet ImageNet, consultez Télécharger, prétraiter et importer l'ensemble de données ImageNet

  7. Lancez des ressources TPU à l'aide de la commande gcloud. La commande à utiliser varie selon que vous utilisez des VM TPU ou des nœuds TPU. Pour en savoir plus sur les deux architectures de VM, consultez la page Architecture du système.

    $ gcloud compute tpus tpu-vm create resnet-tutorial \
      --zone=us-central2-b \
      --accelerator-type=v4-8 \
      --version=tpu-vm-tf-2.17.0-pjrt

    Description des options de commande

    zone
    Zone dans laquelle vous prévoyez de créer votre Cloud TPU.
    accelerator-type
    Le type d'accélérateur spécifie la version et la taille du Cloud TPU que vous souhaitez créer. Pour en savoir plus sur les types d'accélérateurs compatibles avec chaque version de TPU, consultez Versions de TPU.
    version
    Version logicielle de Cloud TPU.

    Pour en savoir plus sur la commande gcloud, consultez la documentation de référence de gcloud.

  8. Connectez-vous à l'instance de VM TPU à l'aide de SSH. Une fois connecté à la VM, l'invite de l'interface système passe de username@projectname à username@vm-name:

    gcloud compute tpus tpu-vm ssh resnet-tutorial --zone=us-central2-b
  9. Définissez la variable de nom Cloud TPU.

    (vm)$ export TPU_NAME=local
  10. Définir des variables de bucket Cloud Storage

    Configurez les variables d'environnement suivantes en remplaçant bucket-name par le nom de votre bucket Cloud Storage :

    (vm)$ export STORAGE_BUCKET=gs://bucket-name
    (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/resnet-2x
    (vm)$ export DATA_DIR=gs://cloud-tpu-test-datasets/fake_imagenet

    L'application d'entraînement s'attend à ce que vos données d'entraînement soient accessibles dans Cloud Storage. Elle exploite également votre bucket Cloud Storage pour stocker des points de contrôle pendant l'entraînement.

  11. Lorsque vous créez votre TPU, si vous définissez le paramètre --version sur une version se terminant par -pjrt, définissez les variables d'environnement suivantes pour activer l'environnement d'exécution PJRT :

      (vm)$ export NEXT_PLUGGABLE_DEVICE_USE_C_API=true
      (vm)$ export TF_PLUGGABLE_DEVICE_LIBRARY_PATH=/lib/libtpu.so
  12. Installez la configuration requise pour TensorFlow.

    (vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt 
  13. Le script d'entraînement ResNet nécessite un package supplémentaire. Installez-le maintenant :

    (vm)$ pip3 install --user tensorflow-model-optimization>=0.1.3
  14. Accédez au répertoire où le modèle est stocké :

    (vm)$ cd /usr/share/tpu/tensorflow/resnet50_keras
  15. Définissez la variable d'environnement PYTHONPATH :

    (vm)$ /usr/share/tpu/tensorflow/resnet50_keras"
  16. Exécutez le script d'entraînement. Cette méthode utilise un ensemble de données fake_imagenet et entraîne ResNet pour 100 étapes.

    (vm)$ resnet50.py --tpu=local --data=gs://cloud-tpu-test-datasets/fake_imagenet

    Description des options de commande

    tpu
    Nom de votre TPU.
    data
    Spécifie le répertoire dans lequel les points de contrôle et les résumés sont stockés lors de l'entraînement du modèle. Si ce dossier n'existe pas, le programme le crée. Lorsque vous utilisez un Cloud TPU, le répertoire model_dir doit être un chemin d'accès à Cloud Storage (gs://...). Vous pouvez réutiliser un dossier existant pour charger les données de point de contrôle actuelles et stocker des points de contrôle supplémentaires tant que les points de contrôle précédents ont été créés avec un TPU de la même taille et la même version de TensorFlow.

Cela entraînera ResNet pendant 100 étapes, ce qui prendra environ trois minutes sur un nœud TPU v3-8. À la fin des 100 étapes, un résultat semblable à ce qui suit s'affiche :

I0624 17:04:26.974905 140457742666816 controller.py:290]  eval | step:    100 | eval time:   23.3 sec | output:
    {'accuracy': 0.0010141226,
     'top_5_accuracy': 0.0051457332,
     'validation_loss': 8.448798}
 eval | step:    100 | eval time:   23.3 sec | output:
    {'accuracy': 0.0010141226,
     'top_5_accuracy': 0.0051457332,
     'validation_loss': 8.448798}

Vous avez terminé l'exemple d'entraînement sur un seul appareil. Suivez la procédure ci-dessous pour supprimer les ressources TPU individuelles actuelles.

  1. Déconnectez-vous de l'instance Compute Engine :

    (vm)$ exit

    Votre invite devrait maintenant être username@projectname, indiquant que vous êtes dans Cloud Shell.

  2. Supprimez la ressource TPU.

    $ gcloud compute tpus tpu-vm delete resnet-tutorial \
      --zone=us-central2-b

    Description des options de commande

    zone
    Zone dans laquelle se trouvait votre Cloud TPU.

Mettre à l'échelle votre modèle avec les pods Cloud TPU

L'entraînement de votre modèle sur des pods Cloud TPU peut nécessiter quelques modifications votre script d'entraînement. Pour en savoir plus, consultez la section Entraînement sur pods TPU.

Entraînement avec un pod TPU

Cette section fournit des informations sur la configuration d'un bucket Cloud Storage et de ressources Cloud TPU pour l'entraînement des pods.

Prérequis

  1. Ouvrez une fenêtre Cloud Shell.

    Ouvrir Cloud Shell

  2. Créez une variable pour l'ID de votre projet.

    export PROJECT_ID=project-id
  3. Configurez Google Cloud CLI pour utiliser le projet dans lequel vous souhaitez créer un Cloud TPU.

    gcloud config set project ${PROJECT_ID}

    La première fois que vous exécutez cette commande dans une nouvelle VM Cloud Shell, une page Authorize Cloud Shell s'affiche. Cliquez sur Authorize en bas de la page. de la page pour permettre à gcloud d'effectuer des appels d'API Google Cloud avec vos identifiants.

  4. Créez un compte de service pour le projet Cloud TPU.

    gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID

    La commande renvoie un compte de service Cloud TPU au format suivant :

    service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
    

  5. Créez un bucket Cloud Storage à l'aide de la commande suivante ou utilisez un bucket que vous avez créé précédemment pour votre projet :

    gcloud storage buckets create gs://bucket-name --project=${PROJECT_ID} --location=us-central2

    Ce bucket Cloud Storage stocke les données que vous utilisez pour entraîner votre modèle, ainsi que les résultats de l'entraînement. La commande gcloud utilisée dans ce tutoriel configure les autorisations par défaut du compte de service Cloud TPU que vous avez configuré à l'étape précédente. Si vous souhaitez utiliser des autorisations plus précises, vérifiez les autorisations de niveau d'accès.

    Le bucket doit se trouver dans la même région que votre VM TPU.

  6. Préparez votre ensemble de données ou utilisez fake_imagenet.

    ImageNet est une base de données d'images. Les images de la base de données sont organisées hiérarchiquement, chaque nœud de cette hiérarchie étant représenté par des centaines de milliers d'images.

    L'entraînement de pod par défaut accède à une version de démonstration de l'ensemble de données complet ImageNet, appelée fake_imagenet. Cette version de démonstration vous permet tester l'entraînement des pods, tout en réduisant les exigences de stockage et de temps généralement associées à l'entraînement d'un modèle sur la base de données ImageNet complète.

    Notez que l'ensemble de données fake_imagenet n'est utile que pour comprendre comment utiliser un Cloud TPU et valider les performances de bout en bout. La précision et le modèle enregistré ne sont pas représentatifs.

    Si vous souhaitez utiliser l'ensemble de données ImageNet complet, consultez la page Télécharger, prétraiter et importer l'ensemble de données ImageNet.

Créer des ressources Cloud TPU

  1. Lancez vos ressources Cloud TPU à l'aide de la commande gcloud.

    Ce tutoriel spécifie un pod v3-32. Pour les autres options de pod, consultez la page Versions de TPU.

    $ gcloud compute tpus tpu-vm create resnet-tutorial \
      --zone=us-central2-b \
      --accelerator-type=4-32 \
      --version=tpu-vm-tf-2.17.0-pod-pjrt

    Description des options de commande

    zone
    Zone dans laquelle vous prévoyez de créer votre Cloud TPU.
    accelerator-type
    Le type d'accélérateur spécifie la version et la taille du Cloud TPU que vous souhaitez créer. Pour en savoir plus sur les types d'accélérateurs compatibles avec chaque version de TPU, consultez Versions de TPU.
    version
    Version logicielle de Cloud TPU.
  2. Connectez-vous à l'instance de VM TPU à l'aide de SSH. Une fois connecté à la VM, l'invite de l'interface système passe de username@projectname à username@vm-name:

    gcloud compute tpus tpu-vm ssh resnet-tutorial --zone=us-central2-b
  3. Exportez les variables de configuration Cloud TPU :

    (vm)$ export ZONE=us-central2-b
    (vm)$ export STORAGE_BUCKET=gs://bucket-name
    (vm)$ export TPU_NAME=resnet-tutorial
    (vm)$ export DATA_DIR=gs://cloud-tpu-test-datasets/fake_imagenet
    (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/resnet-2x-pod

    L'application d'entraînement s'attend à ce que vos données d'entraînement soient accessibles dans Cloud Storage. Elle exploite également le bucket Cloud Storage pour stocker des points de contrôle lors de l'entraînement.

  4. Le script d'entraînement ResNet nécessite un package supplémentaire. Installez-le maintenant :

    (vm)$ pip3 install --user tensorflow-model-optimization>=0.1.3 
  5. Installez la configuration requise pour TensorFlow. {: id='setup-env'}:

    (vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt
  6. Définissez la variable d'environnement PYTHONPATH :

    (vm)$ export PYTHONPATH="PYTHONPATH=/usr/share/tpu/tensorflow/resnet50_keras"
    (vm)$ export TPU_LOAD_LIBRARY=0
  7. Accédez au répertoire où le modèle est stocké :

    (vm)$ cd /usr/share/tpu/tensorflow/resnet50_keras
  8. Entraîner le modèle

    (vm)$ resnet50.py --tpu=${TPU_NAME} --data=gs://cloud-tpu-test-datasets/fake_imagenet

    Description des options de commande

    tpu
    Nom de votre TPU.
    data
    Spécifie le répertoire dans lequel les points de contrôle et les résumés sont stockés lors de l'entraînement du modèle. Si ce dossier n'existe pas, le programme va le créer. Lorsque vous utilisez un Cloud TPU, le model_dir doit être un chemin Cloud Storage (gs://...). Vous pouvez réutiliser un dossier existant pour charger les données de point de contrôle actuelles et stocker des points de contrôle supplémentaires tant que les précédents ont été créés avec un Cloud TPU de la même taille et de la même version TensorFlow.

Cette procédure entraîne le modèle sur l'ensemble de données fake_imagenet sur 100 et 13 étapes d'évaluation. Cet entraînement prend environ 2 minutes Cloud TPU v3-32. Une fois l'entraînement et l'évaluation terminés, des messages semblables aux suivants s'affichent:

{'accuracy': 0.0009716797,
     'learning_rate': 0.10256411,
     'top_5_accuracy': 0.0049560545,
     'training_loss': 8.5587225}
train | step:    100 | steps/sec:    1.2 | output:
    {'accuracy': 0.0009716797,
     'learning_rate': 0.10256411,
     'top_5_accuracy': 0.0049560545,
     'training_loss': 8.5587225}

eval | step:    100 | eval time:   24.8 sec | output:
    {'accuracy': 0.0010141226,
     'top_5_accuracy': 0.004356971,
     'validation_loss': 8.50038}
 eval | step:    100 | eval time:   24.8 sec | output:
    {'accuracy': 0.0010141226,
     'top_5_accuracy': 0.004356971,
     'validation_loss': 8.50038}

Effectuer un nettoyage

Pour éviter que les ressources utilisées lors de ce tutoriel soient facturées sur votre compte Google Cloud, supprimez le projet contenant les ressources, ou conservez le projet et supprimez les ressources individuelles.

  1. Déconnectez-vous de l'instance Compute Engine, si vous ne l'avez pas déjà fait :

    (vm)$ exit

    Votre invite devrait maintenant être username@projectname, indiquant que vous êtes dans Cloud Shell.

  2. Supprimez vos ressources Cloud TPU et Compute Engine.

    $ gcloud compute tpus tpu-vm delete resnet-tutorial \
      --zone=us-central2-b
  3. Vérifiez que les ressources ont été supprimées en exécutant la commande gcloud compute tpus tpu-vm list. La suppression peut prendre plusieurs minutes. Le résultat de la commande suivante ne doit inclure aucune des ressources TPU créées dans ce tutoriel :

    $ gcloud compute tpus tpu-vm list --zone=us-central2-b
  4. Supprimez le bucket Cloud Storage que vous avez créé pour ce tutoriel:

    $ gcloud storage rm gs://bucket-name --recursive

Étape suivante

Les tutoriels TensorFlow Cloud TPU permettent généralement d'entraîner le modèle à l'aide d'un exemple d'ensemble de données. Les résultats de cet entraînement ne sont pas utilisables pour l'inférence. Afin d'utiliser un modèle pour l'inférence, vous pouvez entraîner les données sur un ensemble de données accessible au public ou sur votre propre ensemble de données. Modèles TensorFlow entraînés sur des Cloud TPU nécessitent généralement des jeux de données TFRecord.

Vous pouvez utiliser l'outil de conversion des ensembles de données exemple pour convertir une image de classification au format TFRecord. Si vous n'utilisez pas de modèle de classification d'images, vous devez convertir vous-même votre ensemble de données au format TFRecord. Pour en savoir plus, consultez les sections TFRecord et tf.Example

Réglages d'hyperparamètres

Pour améliorer les performances du modèle avec votre ensemble de données, vous pouvez régler ses hyperparamètres. Vous trouverez des informations sur les hyperparamètres communs à tous Modèles compatibles TPU sur GitHub Des informations sur les hyperparamètres spécifiques aux modèles sont disponibles dans le code source de chaque modèle. Pour en savoir plus sur le réglage des hyperparamètres, consultez la section Présentation réglage des hyperparamètres et régler hyperparamètres.

Inférence

Une fois votre modèle entraîné, vous pouvez l'utiliser pour l'inférence (également appelée des prédictions). Vous pouvez utiliser le convertisseur d'inférence Cloud TPU de Google pour préparer et optimiser Modèle TensorFlow pour l'inférence sur Cloud TPU v5e. Pour plus à propos de l'inférence sur Cloud TPU v5e, consultez la page Inférence Cloud TPU v5e présentation.

  • Découvrez comment entraîner et évaluer avec vos propres données, au lieu des ensembles de données fake_imagenet ou ImageNet, en suivant le tutoriel de conversion des ensembles de données. Ce tutoriel explique comment utiliser le convertisseur de données de classification d'images exemple de script permettant de convertir un ensemble de données brutes pour la classification d'images en TFRecords utilisables par les modèles TensorFlow de Cloud TPU.
  • Exécutez un colab Cloud TPU qui montre comment exécuter un modèle de classification d'images à l'aide de vos propres données d'image.
  • Découvrez les autres tutoriels Cloud TPU.
  • Apprenez à utiliser les outils de surveillance TPU dans TensorBoard.
  • Découvrez comment entraîner ResNet avec Cloud TPU et GKE.