Entraîner RetinaNet sur Cloud TPU (TF 2.x)


Ce document décrit une mise en œuvre du modèle de détection d'objets RetinaNet. Le code est disponible sur GitHub.

Les instructions ci-dessous supposent que vous savez comment exécuter un modèle sur Cloud TPU. Si vous débutez avec Cloud TPU, consultez le guide de démarrage rapide pour en savoir plus.

Si vous prévoyez d'effectuer l'entraînement sur une tranche de pod TPU, consultez la section Entraînement sur des pods TPU. pour comprendre les changements de paramètres requis pour les tranches de pod.

Objectifs

  • Préparer l'ensemble de données COCO
  • Créer un bucket Cloud Storage pour stocker votre ensemble de données et la sortie du modèle
  • Configurer les ressources TPU pour l'entraînement et l'évaluation
  • Exécuter les tâches d'entraînement et d'évaluation sur un seul Cloud TPU ou sur un pod Cloud TPU

Coûts

Dans ce document, vous utilisez les composants facturables suivants de Google Cloud :

  • Compute Engine
  • Cloud TPU
  • Cloud Storage

Obtenez une estimation des coûts en fonction de votre utilisation prévue à l'aide du simulateur de coût. Les nouveaux utilisateurs de Google Cloud peuvent bénéficier d'un essai gratuit.

Avant de commencer

Avant de commencer ce tutoriel, vérifiez que votre projet Google Cloud est correctement configuré.

  1. Connectez-vous à votre compte Google Cloud. Si vous débutez sur Google Cloud, créez un compte pour évaluer les performances de nos produits en conditions réelles. Les nouveaux clients bénéficient également de 300 $ de crédits gratuits pour exécuter, tester et déployer des charges de travail.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Vérifiez que la facturation est activée pour votre projet Google Cloud.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Vérifiez que la facturation est activée pour votre projet Google Cloud.

  6. Ce tutoriel utilise des composants facturables de Google Cloud. Consultez la grille tarifaire de Cloud TPU pour estimer vos coûts.

Préparer l'ensemble de données COCO

Ce tutoriel utilise l'ensemble de données COCO. L'ensemble de données doit être au format TFRecord sur un bucket Cloud Storage pour l'entraînement.

Si l'ensemble de données COCO est déjà préparé dans un bucket Cloud Storage se trouve dans la zone que vous utiliserez pour entraîner le modèle, vous pouvez passer directement à l'entraînement sur un seul appareil. Sinon, suivez les étapes suivantes pour préparer le jeu de données.

  1. Ouvrez une fenêtre Cloud Shell.

    Ouvrir Cloud Shell

  2. Dans Cloud Shell, configurez gcloud avec votre projet. ID.

    export PROJECT_ID=project-id
    gcloud config set project ${PROJECT_ID}
    
  3. Dans Cloud Shell, créez un bucket Cloud Storage à l'aide de la commande suivante :

    gcloud storage buckets create gs://bucket-name --project=${PROJECT_ID} --location=us-central2
    
  4. Créer une VM Compute Engine pour télécharger et prétraiter l'ensemble de données Pour plus pour en savoir plus, consultez Créez et démarrez une instance Compute Engine.

    $ gcloud compute instances create vm-name \
        --zone=us-central2-b \
        --image-family=ubuntu-2204-lts \
        --image-project=ubuntu-os-cloud \
        --machine-type=n1-standard-16 \
        --boot-disk-size=300GB
    
  5. Connectez-vous en SSH à la VM Compute Engine:

    $ gcloud compute ssh vm-name --zone=us-central2-b
    

    Lorsque vous vous connectez à la VM, l'invite de l'interface système passe De username@projectname à username@vm-name.

  6. Configurez deux variables, l'une pour le bucket de stockage créé précédemment et une pour le répertoire qui contient les données d'entraînement (DATA_DIR) dans le bucket de stockage.

    (vm)$ export STORAGE_BUCKET=gs://bucket-name
    
    (vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco
  7. Installez les packages nécessaires au prétraitement des données.

    (vm)$ sudo apt-get update && \
      sudo apt-get install python3-pip && \
      sudo apt-get install -y python3-tk && \
      pip3 install --user Cython matplotlib opencv-python-headless pyyaml Pillow numpy absl-py tensorflow && \
      pip3 install --user "git+https://github.com/cocodataset/cocoapi#egg=pycocotools&subdirectory=PythonAPI"
    
  8. Exécutez le script download_and_preprocess_coco.sh pour convertir l'ensemble de données COCO dans un ensemble de fichiers TFRecord (*.tfrecord) que l'entraînement s'attend à l'application.

    (vm)$ git clone https://github.com/tensorflow/tpu.git
    (vm)$ sudo bash tpu/tools/datasets/download_and_preprocess_coco.sh ./data/dir/coco
    

    Cela installe les bibliothèques requises et exécute le script de prétraitement. Elle génère les fichiers *.tfrecord dans votre répertoire de données local. L'exécution du script de téléchargement et de conversion COCO prend environ une heure.

  9. Copiez les données dans votre bucket Cloud Storage.

    Après avoir converti les données au format TFRecord, copiez-les depuis le stockage local dans votre bucket Cloud Storage à l'aide de gcloud CLI. Vous devez copier également les fichiers d'annotation. Ces fichiers permettent de valider des performances.

    (vm)$ gcloud storage cp ./data/dir/coco/*.tfrecord ${DATA_DIR}
    (vm)$ gcloud storage cp ./data/dir/coco/raw-data/annotations/*.json ${DATA_DIR}
    
  10. Déconnectez-vous de la VM Compute Engine :

    (vm)$ exit
    

    Votre invite devrait maintenant être username@projectname, indiquant que vous êtes dans Cloud Shell.

  11. Supprimez votre VM Compute Engine:

    $ gcloud compute instances delete vm-name \
    --zone=us-central2-b
    

Entraînement sur un seul appareil Cloud TPU

  1. Ouvrez une fenêtre Cloud Shell.

    Ouvrir Cloud Shell

  2. Créez une variable pour l'ID de votre projet.

    export PROJECT_ID=project-id
    
  3. Configurez la Google Cloud CLI pour utiliser le projet dans lequel vous souhaitez créer Cloud TPU.

    gcloud config set project ${PROJECT_ID}
    

    La première fois que vous exécutez cette commande dans une nouvelle VM Cloud Shell, une page Authorize Cloud Shell s'affiche. Cliquez sur Authorize en bas de la page. de la page pour permettre à gcloud d'effectuer des appels d'API Google Cloud avec votre identifiants de connexion.

  4. Créez un compte de service pour le projet Cloud TPU.

    gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
    

    La commande renvoie un compte de service Cloud TPU au format suivant:

    service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
    

  5. Créez un bucket Cloud Storage à l'aide de la commande suivante :

    gcloud storage buckets create gs://bucket-name --project=${PROJECT_ID} --location=europe-west4
    

    Ce bucket Cloud Storage stocke les données que vous utilisez pour entraîner votre modèle, ainsi que les résultats de l'entraînement. La commande gcloud utilisée dans ce tutoriel pour configurer le TPU configure également les autorisations par défaut du compte de service Cloud TPU que vous avez configuré à l'étape précédente. Si vous souhaitez utiliser des autorisations plus précises, vérifiez les autorisations de niveau d'accès.

Configurer et démarrer Cloud TPU

  1. Lancez une VM Compute Engine et Cloud TPU à l'aide de la commande gcloud.

    $ gcloud compute tpus tpu-vm create retinanet-tutorial \
    --zone=europe-west4-a \
    --accelerator-type=v3-8 \
    --version=tpu-vm-tf-2.17.0-pjrt
    

    Description des options de commande

    zone
    Zone dans laquelle vous prévoyez de créer votre Cloud TPU.
    accelerator-type
    Le type d'accélérateur spécifie la version et la taille de la ressource Cloud TPU que vous souhaitez créer. Pour en savoir plus sur les types d'accélérateurs compatibles avec chaque version de TPU, consultez Versions de TPU.
    version
    Version logicielle de Cloud TPU.

    Pour en savoir plus sur la commande gcloud, consultez la documentation de référence de gcloud.

  2. Connectez-vous à l'instance Compute Engine à l'aide de SSH. Lorsque vous êtes connecté à la VM, l'invite de l'interface système passe de username@projectname à username@vm-name:

    gcloud compute tpus tpu-vm ssh retinanet-tutorial --zone=europe-west4-a
    
  3. Installer les packages supplémentaires

    L'application d'apprentissage RetinaNet nécessite plusieurs packages supplémentaires. Installez-les maintenant :

    (vm)$ sudo apt-get install -y python3-tk
    (vm)$ pip3 install --user Cython matplotlib opencv-python-headless pyyaml Pillow
    (vm)$ pip3 install --user 'git+https://github.com/cocodataset/cocoapi#egg=pycocotools&subdirectory=PythonAPI'
    
  4. Installez la configuration requise pour TensorFlow.

    (vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt
    
  5. Définissez la variable de nom Cloud TPU.

    (vm)$ export TPU_NAME=local
    
  6. Ajoutez les variables d'environnement pour les répertoires de données et de modèles.

    (vm)$ export STORAGE_BUCKET=gs://bucket-name
    (vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco
    (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/retinanet-train
    (vm)$ export PYTHONPATH="${PWD}/models:${PYTHONPATH}"
    
  7. Lors de la création de votre TPU, si vous définissez le paramètre --version sur une version se terminant par -pjrt, définissez les variables d'environnement suivantes pour activer l'environnement d'exécution PJRT:

      (vm)$ export NEXT_PLUGGABLE_DEVICE_USE_C_API=true
      (vm)$ export TF_PLUGGABLE_DEVICE_LIBRARY_PATH=/lib/libtpu.so
    
  8. Accédez au répertoire où le modèle est stocké :

    (vm)$ cd /usr/share/tpu/models/official/legacy/detection
    

Entraînement sur un seul appareil Cloud TPU

Les scripts d'entraînement suivants ont été exécutés sur un Cloud TPU v3-8. Il prennent plus de temps, mais vous pouvez également les exécuter sur un Cloud TPU v2-8.

L'exemple de script suivant permet d'effectuer un entraînement pour seulement 10 pas et de moins de 5 étapes sur un TPU v3-8. L'entraînement vers la convergence nécessite environ par étapes et environ une heure et demie sur un TPU Cloud TPU v3-8.

  1. Configurez les variables d'environnement suivantes :

    (vm)$ export RESNET_CHECKPOINT=gs://cloud-tpu-checkpoints/retinanet/resnet50-checkpoint-2018-02-07
    (vm)$ export TRAIN_FILE_PATTERN=${DATA_DIR}/train-*
    (vm)$ export EVAL_FILE_PATTERN=${DATA_DIR}/val-*
    (vm)$ export VAL_JSON_FILE=${DATA_DIR}/instances_val2017.json
    
  2. Exécutez le script d'entraînement :

    (vm)$ python3 main.py \
         --strategy_type=tpu \
         --tpu=${TPU_NAME} \
         --model_dir=${MODEL_DIR} \
         --mode="train" \
         --params_override="{ type: retinanet, train: { total_steps: 10, checkpoint: { path: ${RESNET_CHECKPOINT}, prefix: resnet50/ }, train_file_pattern: ${TRAIN_FILE_PATTERN} }, eval: { val_json_file: ${VAL_JSON_FILE}, eval_file_pattern: ${EVAL_FILE_PATTERN}, eval_samples: 5000 } }"
    

    Description des options de commande

    strategy_type
    Pour entraîner le modèle RetinaNet sur un TPU, vous devez définir le paramètre distribution_strategy à tpu.
    tpu
    Nom du Cloud TPU. Ce paramètre est défini à l'aide de la propriété TPU_NAME.
    model_dir
    Bucket Cloud Storage où sont stockés les points de contrôle et les résumés pendant l'entraînement. Vous pouvez utiliser un dossier existant pour charger des points de contrôle précédemment créés sur un TPU de la même taille et de la même version TensorFlow.
    mode
    Définissez cette valeur sur train pour entraîner le modèle ou sur eval. pour évaluer le modèle.
    params_override
    Chaîne JSON qui remplace les paramètres de script par défaut. Pour en savoir plus sur les paramètres de script, consultez /usr/share/models/official/legacy/detection/main.py.

Le modèle sera entraîné pour 10 étapes en 5 minutes environ sur un TPU v3-8. Lorsque l'entraînement, un résultat semblable aux lignes suivantes s'affiche:

Train Step: 10/10  / loss = {
  'total_loss': 2.4581615924835205,
  'cls_loss': 1.4098565578460693,
  'box_loss': 0.012001709081232548,
  'model_loss': 2.0099422931671143,
  'l2_regularization_loss': 0.44821977615356445,
  'learning_rate': 0.008165999
}
/ training metric = {
  'total_loss': 2.4581615924835205,
  'cls_loss': 1.4098565578460693,
  'box_loss': 0.012001709081232548,
  'model_loss': 2.0099422931671143,
  'l2_regularization_loss': 0.44821977615356445,
 'learning_rate': 0.008165999
}

Évaluation sur un seul appareil Cloud TPU

La procédure suivante utilise les données d'évaluation COCO. Cela prend environ 10 minutes pour exécuter les étapes d'évaluation sur un TPU v3-8.

  1. Configurez les variables d'environnement suivantes :

    (vm)$ export EVAL_SAMPLES=5000
    
  2. Exécutez le script d'évaluation :

    (vm)$ python3 main.py \
          --strategy_type=tpu \
          --tpu=${TPU_NAME} \
          --model_dir=${MODEL_DIR} \
          --checkpoint_path=${MODEL_DIR} \
          --mode=eval_once \
          --params_override="{ type: retinanet, eval: { val_json_file: ${VAL_JSON_FILE}, eval_file_pattern: ${EVAL_FILE_PATTERN}, eval_samples: ${EVAL_SAMPLES} } }"
    

    Description des options de commande

    strategy_type
    Stratégie de répartition à utiliser. tpu ou multi_worker_gpu
    tpu
    Nom du Cloud TPU. Ce paramètre est défini à l'aide de la propriété TPU_NAME.
    model_dir
    Bucket Cloud Storage dans lequel se trouvent les points de contrôle et les résumés stockées pendant l'entraînement. Vous pouvez utiliser un dossier existant pour le charger des points de contrôle générés sur un TPU de même taille et sur TensorFlow version.
    mode
    Valeurs possibles : train, eval ou train_and_eval.
    params_override
    Chaîne JSON qui remplace les paramètres de script par défaut. Pour plus sur les paramètres de script, consultez /usr/share/models/official/legacy/detection/main.py

    À la fin de l'évaluation, vous verrez dans la console des messages semblables à ce qui suit :

    Accumulating evaluation results...
    DONE (t=7.66s).
     Average Precision  (AP) @[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = 0.000
     Average Precision  (AP) @[ IoU=0.50      | area=   all | maxDets=100 ] = 0.000
     Average Precision  (AP) @[ IoU=0.75      | area=   all | maxDets=100 ] = 0.000
     Average Precision  (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.000
     Average Precision  (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.000
     Average Precision  (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.000
     Average Recall     (AR) @[ IoU=0.50:0.95 | area=   all | maxDets=  1 ] = 0.000
     Average Recall     (AR) @[ IoU=0.50:0.95 | area=   all | maxDets= 10 ] = 0.000
     Average Recall     (AR) @[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = 0.000
     Average Recall     (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.000
     Average Recall     (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.000
     Average Recall     (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.000
    

Vous avez terminé l'entraînement et l'évaluation sur un seul appareil. Utilisez les éléments suivants : pour supprimer les ressources TPU actuelles sur un seul appareil.

  1. Déconnectez-vous de l'instance Compute Engine :

    (vm)$ exit
    

    Votre invite devrait maintenant être username@projectname, indiquant que vous êtes dans Cloud Shell.

  2. Supprimez la ressource TPU.

    $ gcloud compute tpus tpu-vm delete retinanet-tutorial \
      --zone=europe-west4-a
    

    Description des options de commande

    zone
    Zone dans laquelle votre Cloud TPU se trouve.

Faire évoluer votre modèle avec des pods Cloud TPU

L'entraînement de votre modèle sur des pods Cloud TPU peut nécessiter quelques modifications à votre script d'entraînement. Pour en savoir plus, consultez la section Entraîner sur des pods TPU.

Entraîner Retinanet sur un pod TPU

  1. Ouvrez une fenêtre Cloud Shell.

    Ouvrir Cloud Shell

  2. Créez une variable pour l'ID de votre projet.

    export PROJECT_ID=project-id
    
  3. Configurez la Google Cloud CLI pour utiliser le projet dans lequel vous souhaitez créer Cloud TPU.

    gcloud config set project ${PROJECT_ID}
    

    La première fois que vous exécutez cette commande dans une nouvelle VM Cloud Shell, une page Authorize Cloud Shell s'affiche. Cliquez sur Authorize en bas de la page. de la page pour permettre à gcloud d'effectuer des appels d'API Google Cloud avec votre des identifiants Google Cloud.

  4. Créez un compte de service pour le projet Cloud TPU.

    Les comptes de service permettent au service Cloud TPU d'accéder à d'autres services.

    gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
    

    La commande renvoie un compte de service Cloud TPU au format suivant:

    service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
    

  5. Créez un bucket Cloud Storage à l'aide de la commande suivante ou utilisez un bucket que vous avez créé précédemment pour votre projet.

    Dans la commande suivante, remplacez europe-west4 par le nom de la région que vous utiliserez pour exécuter l'entraînement. Remplacez bucket-name par le nom que vous souhaitez attribuer à votre bucket.

    gcloud storage buckets create gs://bucket-name \
      --project=${PROJECT_ID} \
      --location=europe-west4
    

    Ce bucket Cloud Storage stocke les données que vous utilisez pour entraîner votre modèle, ainsi que les résultats de l'entraînement. La commande gcloud utilisée dans ce tutoriel configure les autorisations par défaut pour le compte de service Cloud TPU que vous avez configurés dans à l'étape précédente. Si vous souhaitez utiliser des autorisations plus précises, autorisations de niveau d'accès.

    L'emplacement du bucket doit se trouver dans la même région que vos ressources TPU.

  6. Si vous avez déjà préparé l'ensemble de données COCO et l'avez déplacé vers votre espace de stockage vous pouvez l'utiliser à nouveau pour l'entraînement des pods. Si vous n'avez pas encore préparé l'ensemble de données COCO, préparez-le maintenant et revenez ici pour définir la formation.

  7. Configurez et lancez un pod Cloud TPU

    Ce tutoriel spécifie un pod v3-32. Pour connaître les autres options de pod, consultez Versions de TPU.

    <ph type="x-smartling-placeholder">

    Lancez un pod de VM TPU à l'aide de la commande gcloud compute tpus tpu-vm. Ce tutoriel spécifie un pod v3-32. Pour connaître les autres options de pod, consultez la page Types de TPU disponibles.

    $ gcloud compute tpus tpu-vm create retinanet-tutorial \
      --zone=europe-west4-a \
      --accelerator-type=v3-32 \
      --version=tpu-vm-tf-2.17.0-pod-pjrt
     

    Description des options de commande

    zone
    Zone dans laquelle vous prévoyez de créer votre Cloud TPU.
    accelerator-type
    Le type d'accélérateur spécifie la version et la taille de la ressource Cloud TPU que vous souhaitez créer. Pour en savoir plus sur les types d'accélérateurs compatibles avec chaque version de TPU, consultez Versions de TPU.
    version
    Version logicielle de Cloud TPU.
  8. Se connecter à l'instance de VM TPU à l'aide de SSH Une fois connecté à la VM, l'invite de l'interface système passe de username@projectname à username@vm-name:

    gcloud compute tpus tpu-vm ssh retinanet-tutorial --zone=europe-west4-a
    
  9. Définissez la variable de nom Cloud TPU.

    (vm)$ export TPU_NAME=retinanet-tutorial
    
  10. Définir des variables de bucket Cloud Storage

    Configurez les variables d'environnement suivantes en remplaçant bucket-name par le nom de votre bucket Cloud Storage :

    (vm)$ export STORAGE_BUCKET=gs://bucket-name
    
    (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/retinanet-train
    (vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco
    

    L'application d'entraînement s'attend à ce que vos données d'entraînement soient accessibles dans Cloud Storage. Elle exploite également le bucket Cloud Storage pour stocker des points de contrôle lors de l'entraînement.

  11. Installer les packages supplémentaires

    L'application d'apprentissage RetinaNet nécessite plusieurs packages supplémentaires. Installer dès maintenant:

    (vm)$ sudo apt-get install -y python3-tk
    (vm)$ pip3 install --user Cython matplotlib opencv-python-headless pyyaml Pillow
    (vm)$ pip3 install --user 'git+https://github.com/cocodataset/cocoapi#egg=pycocotools&subdirectory=PythonAPI'
    
  12. Installez la configuration requise pour TensorFlow.

    (vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt
    
  13. Définissez certaines variables d'environnement requises :

    (vm)$ export RESNET_PRETRAIN_DIR=gs://cloud-tpu-checkpoints/retinanet/resnet50-checkpoint-2018-02-07
    (vm)$ export TRAIN_FILE_PATTERN=${DATA_DIR}/train-*
    (vm)$ export EVAL_FILE_PATTERN=${DATA_DIR}/val-*
    (vm)$ export VAL_JSON_FILE=${DATA_DIR}/instances_val2017.json
    (vm)$ export PYTHONPATH="${PWD}/models:${PYTHONPATH}"
    (vm)$ export TPU_LOAD_LIBRARY=0
    
  14. Accédez au répertoire où le modèle est stocké :

    (vm)$ cd /usr/share/tpu/models/official/legacy/detection
  15. Entraîner le modèle

    (vm)$ python3 main.py \
      --strategy_type=tpu \
      --tpu=${TPU_NAME} \
      --model_dir=${MODEL_DIR} \
      --mode=train \
      --model=retinanet \
      --params_override="{architecture: {use_bfloat16: true}, eval: {batch_size: 40, eval_file_pattern: ${EVAL_FILE_PATTERN}, val_json_file: ${VAL_JSON_FILE}}, postprocess: {pre_nms_num_boxes: 1000}, predict: {batch_size: 40}, train: {batch_size: 256, checkpoint: {path: ${RESNET_PRETRAIN_DIR}, prefix: resnet50/}, iterations_per_loop: 5000, total_steps: 5625, train_file_pattern: ${TRAIN_FILE_PATTERN}, } }" 

    Description des options de commande

    tpu
    Nom de votre TPU.
    model_dir
    Spécifie le répertoire dans lequel les points de contrôle et les résumés sont stockés lors de l'entraînement du modèle. Si ce dossier est absent, le programme le crée. Lorsque vous utilisez un Cloud TPU, la classe model_dir doit être un chemin d'accès Cloud Storage (gs://...). Vous pouvez réutiliser un dossier existant pour charger les données de point de contrôle actuelles et stocker des points de contrôle supplémentaires tant que les précédents ont été créés à l'aide de Cloud TPU de même taille et de la même version de TensorFlow.
    params_override
    Chaîne JSON qui remplace les paramètres de script par défaut. Pour en savoir plus sur les paramètres de script, consultez /usr/share/tpu/models/official/legacy/detection/main.py.

    Cette procédure entraîne le modèle sur l'ensemble de données COCO pour l'entraînement de 5 625 caractères étapes. Cet entraînement prend environ 20 minutes sur un TPU v3-32. Quand ? l'entraînement est terminé, un message semblable au suivant s'affiche:

Une fois l'entraînement terminé, un message semblable au suivant s'affiche :

   Train Step: 5625/5625  / loss = {'total_loss': 0.730501651763916,
   'cls_loss': 0.3229793608188629, 'box_loss': 0.003082591574639082,
   'model_loss': 0.4771089553833008, 'l2_regularization_loss': 0.2533927261829376,
   'learning_rate': 0.08} / training metric = {'total_loss': 0.730501651763916,
   'cls_loss': 0.3229793608188629, 'box_loss': 0.003082591574639082,
   'model_loss': 0.4771089553833008, 'l2_regularization_loss': 0.2533927261829376,
   'learning_rate': 0.08} 

Effectuer un nettoyage

Pour éviter que les ressources utilisées lors de ce tutoriel soient facturées sur votre compte Google Cloud, supprimez le projet contenant les ressources, ou conservez le projet et supprimez les ressources individuelles.

  1. Déconnectez-vous de la VM Compute Engine :

    (vm)$ exit
    

    Votre invite devrait maintenant être username@projectname, indiquant que vous êtes dans Cloud Shell.

  2. Supprimez vos ressources Cloud TPU et Compute Engine.

    $ gcloud compute tpus tpu-vm delete retinanet-tutorial \
      --zone=europe-west4-a
    
  3. Vérifiez que les ressources ont été supprimées en exécutant la commande gcloud compute tpus tpu-vm list. La suppression peut prendre plusieurs minutes. Une réponse de ce type indique vos instances ont bien été supprimées.

    $ gcloud compute tpus tpu-vm list --zone=europe-west4-a
    
    Listed 0 items.
    
  4. Supprimez le bucket Cloud Storage. Remplacez bucket-name par le nom. de votre bucket Cloud Storage.

  5. Supprimez votre bucket Cloud Storage à l'aide de gcloud CLI, comme indiqué. dans l'exemple suivant. Remplacez bucket-name par le nom de votre bucket Cloud Storage.

    $ gcloud storage rm gs://bucket-name --recursive
    

Étape suivante

Les tutoriels TensorFlow Cloud TPU permettent généralement d'entraîner le modèle à l'aide d'un exemple d'ensemble de données. Les résultats de cet entraînement ne sont pas utilisables pour l'inférence. À utiliser un modèle pour l'inférence, vous pouvez entraîner les données sur une couche ensemble de données ou votre propre jeu de données. Modèles TensorFlow entraînés sur des Cloud TPU nécessitent généralement des jeux de données TFRecord.

Vous pouvez utiliser l'outil de conversion des ensembles de données exemple pour convertir une image de classification au format TFRecord. Si vous n'utilisez pas d'image vous devrez convertir votre ensemble de données Format TFRecord vous-même. Pour en savoir plus, consultez les sections TFRecord et tf.Example

Réglages d'hyperparamètres

Pour améliorer les performances du modèle avec votre ensemble de données, vous pouvez régler hyperparamètres. Vous trouverez des informations sur les hyperparamètres communs à tous Modèles compatibles TPU sur GitHub Pour en savoir plus sur les hyperparamètres propres au modèle, consultez la source de code pour chaque du modèle de ML. Pour en savoir plus sur le réglage des hyperparamètres, consultez la section Présentation réglage des hyperparamètres et régler hyperparamètres.

Inférence

Une fois votre modèle entraîné, vous pouvez l'utiliser pour l'inférence (également appelée des prédictions). Vous pouvez utiliser le convertisseur d'inférence Cloud TPU de Google pour préparer et optimiser Modèle TensorFlow pour l'inférence sur Cloud TPU v5e. Pour plus à propos de l'inférence sur Cloud TPU v5e, consultez la page Inférence Cloud TPU v5e présentation.

Entraînez le modèle à l'aide d'autres tailles d'images

Vous pouvez envisager d'utiliser un réseau backbone plus vaste (par exemple, ResNet-101 à la place de ResNet-50). Une image d'entrée plus grande et un réseau backbone plus puissant permettent d'obtenir plus lent, mais plus précis.

Utilisez une base différente

Vous pouvez pré-entraîner un modèle ResNet à l'aide de votre propre ensemble de données et l'utiliser comme base pour votre modèle RetinaNet. Avec un peu plus de travail, vous pouvez également un réseau backbone alternatif à la place de ResNet. Enfin, Si vous souhaitez implémenter vos propres modèles de détection d'objets, réseau peut constituer une bonne base pour des tests plus poussés.