Entraîner le modèle Mask RCNN sur Cloud TPU

Présentation

Ce tutoriel explique comment exécuter le modèle Mask RCNN à l'aide de Cloud TPU avec l'ensemble de données COCO.

Le système Mask RCNN est un réseau de neurones profond conçu pour la détection d'objets et la segmentation d'images, l'une des étapes les plus difficiles pour la vision par ordinateur.

Le modèle Mask RCNN génère des cadres de délimitation et des masques de segmentation pour chaque instance d'un objet dans l'image. Le modèle est basé sur le réseau de pyramides à caractéristiques (FPN) et sur un réseau de neurones ResNet50.

Ce tutoriel utilise tf.contrib.tpu.TPUEstimator pour entraîner le modèle. L'API TPUEstimator est une API TensorFlow de haut niveau. Il s'agit de la méthode recommandée pour créer et exécuter un modèle de machine learning sur Cloud TPU. Cette API simplifie le processus de développement des modèles en masquant la plupart des mises en œuvre de bas niveau, ce qui facilite le basculement entre le TPU et d'autres plates-formes telles que le GPU ou le processeur.

Objectifs

  • Créer un bucket Cloud Storage pour stocker votre ensemble de données et la sortie du modèle
  • Préparer l'ensemble de données COCO
  • Configurer une VM Compute Engine et un nœud Cloud TPU pour l'entraînement et l'évaluation
  • Exécuter les tâches d'entraînement et d'évaluation sur un seul Cloud TPU ou sur un pod Cloud TPU

Coûts

Ce tutoriel utilise des composants facturables de Google Cloud, dont :

  • Instance
  • Cloud TPU
  • Cloud Storage

Obtenez une estimation des coûts en fonction de votre utilisation prévue à l'aide du simulateur de coût. Les nouveaux utilisateurs de Google Cloud peuvent bénéficier d'un essai gratuit.

Avant de commencer

Avant de commencer ce tutoriel, vérifiez que votre projet Google Cloud est correctement configuré.

  1. Connectez-vous à votre compte Google Cloud. Si vous débutez sur Google Cloud, créez un compte pour évaluer les performances de nos produits en conditions réelles. Les nouveaux clients bénéficient également de 300 $ de crédits gratuits pour exécuter, tester et déployer des charges de travail.
  2. Dans Google Cloud Console, sur la page de sélection du projet, sélectionnez ou créez un projet Google Cloud.

    Accéder au sélecteur de projet

  3. Assurez-vous que la facturation est activée pour votre projet Cloud. Découvrez comment vérifier que la facturation est activée pour votre projet.

  4. Ce tutoriel utilise des composants facturables de Google Cloud. Consultez la grille tarifaire de Cloud TPU pour estimer vos coûts. Veillez à nettoyer les ressources que vous avez créées lorsque vous avez terminé, afin d'éviter des frais inutiles.

Si vous prévoyez d'entraîner un modèle sur une tranche de pod TPU, consultez la section Entraînement sur les pods TPU pour comprendre les modifications de paramètres nécessaires pour les tranches de pods.

Configurer vos ressources

Cette section fournit des informations sur la configuration des ressources Cloud Storage, de VM et Cloud TPU pour ce tutoriel.

  1. Ouvrez une fenêtre Cloud Shell.

    Ouvrir Cloud Shell

  2. Créez une variable d'environnement pour l'ID de votre projet.

    export PROJECT_ID=project-id
  3. Configurez l'outil de ligne de commande gcloud pour utiliser le projet dans lequel vous souhaitez créer une Cloud TPU.

    gcloud config set project ${PROJECT_ID}
    

    La première fois que vous exécutez cette commande dans une nouvelle VM Cloud Shell, une page Authorize Cloud Shell s'affiche. Cliquez sur Authorize en bas de la page pour permettre à gcloud d'effectuer des appels d'API GCP avec vos identifiants.

  4. Créez un compte de service pour le projet Cloud TPU.

    gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
    

    La commande renvoie un compte de service Cloud TPU au format suivant :

    service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
    

  5. Créez un bucket Cloud Storage à l'aide de la commande suivante :

    gsutil mb -p ${PROJECT_ID} -c standard -l europe-west4 -b on gs://bucket-name
    

    Ce bucket Cloud Storage stocke les données que vous utilisez pour entraîner votre modèle, ainsi que les résultats de l'entraînement. La commande gcloud compute tpus execution-groups utilisée dans ce tutoriel définit les autorisations par défaut pour le compte de service Cloud TPU. Si vous souhaitez utiliser des autorisations plus précises, vérifiez les autorisations de niveau d'accès.

    L'emplacement du bucket doit se trouver dans la même région que votre machine virtuelle (VM) et votre nœud TPU. Les VM et les nœuds TPU sont situés dans des zones spécifiques, qui sont des subdivisions au sein d'une région.

  6. Lancez les ressources Compute Engine et Cloud TPU requises à l'aide de la commande gcloud compute tpus execution-groups.

    gcloud compute tpus execution-groups create \
     --vm-only \
     --name=mask-rcnn-tutorial \
     --zone=europe-west4-a \
     --disk-size=300 \
     --machine-type=n1-standard-8 \
     --tf-version=1.15.5
    

    Description des options de commande

    vm-only
    Créez uniquement la VM Compute Engine et ne créez pas de Cloud TPU.
    name
    Nom de la ressource Cloud TPU à créer.
    zone
    Zone dans laquelle vous prévoyez de créer votre Cloud TPU.
    disk-size
    Taille du disque dur en Go de la VM créée par la commande gcloud.
    machine-type
    Type de machine de la VM Compute Engine à créer.
    tf-version
    La version de Tensorflow que gcloud installe sur la VM.
  7. La configuration que vous avez spécifiée apparaît. Saisissez y pour approuver ou n pour annuler.

  8. Une fois l'exécution de la commande gcloud compute tpus execution-groups terminée, vérifiez que l'invite de l'interface système est passée de username@projectname à username@vm-name. Cette modification indique que vous êtes maintenant connecté à votre VM Compute Engine.

    gcloud compute ssh mask-rcnn-tutorial --zone=europe-west4-a
    

    À mesure que vous appliquez ces instructions, exécutez chaque commande commençant par (vm)$ dans la fenêtre de session de la VM.

Installer les packages supplémentaires

L'application d'apprentissage Mask RCNN nécessite plusieurs packages supplémentaires. Installez-les maintenant :

(vm)$ sudo apt-get install -y python3-tk && \
  pip3 install --user Cython matplotlib opencv-python-headless pyyaml Pillow && \
  pip3 install --user 'git+https://github.com/cocodataset/cocoapi#egg=pycocotools&subdirectory=PythonAPI' && \
  pip3 install --user -U gast==0.2.2

Mettre à jour les valeurs "keepalive" de la connexion à votre VM

Dans ce tutoriel, vous devez disposer d'une connexion longue durée à l'instance Compute Engine. Pour vérifier que vous n'êtes pas déconnecté de l'instance, exécutez la commande suivante :

(vm)$ sudo /sbin/sysctl \
  -w net.ipv4.tcp_keepalive_time=120 \
  net.ipv4.tcp_keepalive_intvl=120 \
  net.ipv4.tcp_keepalive_probes=5

Préparer les données

  1. Ajoutez une variable d'environnement pour votre bucket de stockage. Remplacez bucket-name par le nom de votre bucket.

    (vm)$ export STORAGE_BUCKET=gs://bucket-name
    
  2. Ajoutez une variable d'environnement pour le répertoire de données.

    (vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco
    
  3. Ajoutez une variable d'environnement pour le répertoire de modèle.

    (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/mask-rcnn
    
  4. Exécutez le script download_and_preprocess_coco.sh pour convertir l'ensemble de données COCO en fichiers TFRecord (*.tfrecord), ce qui correspond au format attendu par l'application d'entraînement.

    (vm)$ sudo bash /usr/share/tpu/tools/datasets/download_and_preprocess_coco.sh ./data/dir/coco
    

    Cela installe les bibliothèques requises et exécute le script de prétraitement. Un certain nombre de fichiers *.tfrecord est alors créé dans votre répertoire de données.

  5. Copiez les données dans votre bucket Cloud Storage

    Après avoir converti les données en TFRecord, copiez-les depuis le stockage local vers votre bucket Cloud Storage à l'aide de la commande gsutil. Vous devez également copier les fichiers d'annotation. Ces fichiers vous aident à valider les performances du modèle.

    (vm)$ gsutil -m cp ./data/dir/coco/*.tfrecord ${DATA_DIR}
    
    (vm)$ gsutil cp ./data/dir/coco/raw-data/annotations/*.json ${DATA_DIR}
    

Configurer et démarrer Cloud TPU

  1. Exécutez la commande suivante pour créer un Cloud TPU.

    (vm)$ gcloud compute tpus execution-groups create \
     --tpu-only \
     --accelerator-type=v3-8 \
     --name=mask-rcnn-tutorial \
     --zone=europe-west4-a \
     --tf-version=1.15.5
    

    Description des options de commande

    tpu-only
    Crée le Cloud TPU uniquement et ne crée pas de Compute Engine.
    accelerator-type
    Type du Cloud TPU à créer.
    name
    Nom de la ressource Cloud TPU à créer.
    zone
    Zone dans laquelle vous prévoyez de créer votre Cloud TPU.
    tf-version
    La version de Tensorflow que gcloud installe sur la VM.
  2. La configuration que vous avez spécifiée apparaît. Saisissez y pour approuver ou n pour annuler.

    Le message suivant s'affiche : Operation success; not ssh-ing to Compute Engine VM due to --tpu-only flag. Vous pouvez ignorer ce message puisque vous avez déjà effectué la propagation de clé SSH.

  3. Ajoutez une variable d'environnement pour le nom du Cloud TPU.

    (vm)$ export TPU_NAME=mask-rcnn-tutorial
    

Exécuter l'entraînement et l'évaluation

  1. Ajoutez des variables d'environnement obligatoires :

    (vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/tpu/models"
    (vm)$ export RESNET_CHECKPOINT=gs://cloud-tpu-checkpoints/retinanet/resnet50-checkpoint-2018-02-07
    (vm)$ export TRAIN_FILE_PATTERN=${DATA_DIR}/train-*
    (vm)$ export EVAL_FILE_PATTERN=${DATA_DIR}/val-*
    (vm)$ export VAL_JSON_FILE=${DATA_DIR}/instances_val2017.json
    (vm)$ export ACCELERATOR_TYPE=v3-8
    
  2. Accédez au répertoire /usr/share :

    (vm)$ cd /usr/share
    
  3. Exécutez la commande suivante pour effectuer les tâches d'entraînement et d'évaluation.

    (vm)$ python3 tpu/models/official/mask_rcnn/mask_rcnn_main.py \
    --use_tpu=True \
    --tpu=${TPU_NAME} \
    --model_dir=${MODEL_DIR} \
    --num_cores=8 \
    --mode="train_and_eval" \
    --config_file="/usr/share/tpu/models/official/mask_rcnn/configs/cloud/${ACCELERATOR_TYPE}.yaml" \
    --params_override="checkpoint=${RESNET_CHECKPOINT}, training_file_pattern=${TRAIN_FILE_PATTERN}, validation_file_pattern=${EVAL_FILE_PATTERN}, val_json_file=${VAL_JSON_FILE}"
      

    Description des options de commande

    use_tpu
    Définissez l'option true pour l'entraînement sur un Cloud TPU.
    tpu
    Nom du Cloud TPU utilisé pour exécuter l'entraînement ou l'évaluation.
    model_dir
    Le bucket Cloud Storage dans lequel les points de contrôle et les résumés sont stockés pendant l'entraînement. Vous pouvez utiliser un dossier existant pour charger des points de contrôle générés précédemment sur un TPU de la même taille et de la même version de TensorFlow.
    num_cores
    Nombre de cœurs Cloud TPU à utiliser lors de l'entraînement.
    mode
    Spécifiez l'un des types suivants : train, eval ou train_and_eval.
    config_file
    Fichier de configuration utilisé par le script d'entraînement/d'évaluation.
    params_override
    Chaîne JSON qui remplace les paramètres de script par défaut. Pour en savoir plus sur les paramètres de script, consultez /usr/share/models/official/vision/detection/main.py.

Une fois l'opération terminée, le script d'entraînement affiche le résultat suivant:

Eval results: {
  'AP75': 0.40665552,
  'APs': 0.21580082,
  'ARmax10': 0.48935828,
  'ARs': 0.3210774,
  'ARl': 0.6564725,
  'AP50': 0.58614284,
  'mask_AP': 0.33921072,
  'mask_AP50': 0.553329,
  'ARm': 0.5500552,
  'mask_APm': 0.37276757,
  'mask_ARmax100': 0.46716768,
  'mask_AP75': 0.36201102,
  'ARmax1': 0.3094466,
  'ARmax100': 0.51287305,
  'APm': 0.40756866,
  'APl': 0.48908308,
  'mask_ARm': 0.50562346,
  'mask_ARl': 0.6192515,
  'mask_APs': 0.17869519,
  'mask_ARmax10': 0.44764888,
  'mask_ARmax1': 0.2897982,
  'mask_ARs': 0.27102336,
  'mask_APl': 0.46426648,
  'AP': 0.37379172
}

Vous pouvez maintenant terminer ce tutoriel et nettoyer vos ressources GCP. Vous pouvez également choisir d'explorer plus avant l'exécution du modèle dans un pod Cloud TPU.

Mise à l'échelle de votre modèle avec les pods Cloud TPU

Vous pouvez obtenir des résultats plus rapidement en adaptant votre modèle aux pods Cloud TPU. Le modèle Mask RCNN est totalement compatible et peut fonctionner avec les tranches de pod suivantes :

  • v2-32
  • v3-32

Lorsque vous utilisez des pods TPU Cloud, vous devez d'abord entraîner le modèle à l'aide d'un pod, puis utiliser un seul appareil Cloud TPU pour évaluer le modèle.

Entraîner avec les pods Cloud TPU

Si vous avez déjà supprimé votre instance Compute Engine, créez-en une nouvelle en suivant les étapes décrites dans la section Configurer vos ressources.

  1. Supprimez la ressource Cloud TPU que vous avez créée pour entraîner le modèle sur un seul appareil.

    (vm)$ gcloud compute tpus execution-groups delete mask-rcnn-tutorial \
      --zone=europe-west4-a \
      --tpu-only
    
  2. Exécutez la commande gcloud compute tpus execution-groups à l'aide du paramètre accelerator-type pour spécifier la tranche de pod que vous souhaitez utiliser. Par exemple, la commande suivante utilise une tranche de pod v3-32.

    (vm)$ gcloud compute tpus execution-groups  create --tpu-only \
      --accelerator-type=v3-32 \
      --zone=europe-west4-a \
      --name=mask-rcnn-tutorial \
      --tf-version=1.15.5
    

    Description des options de commande

    tpu-only
    Crée un Cloud TPU uniquement. Par défaut, la commande gcloud crée une VM et un Cloud TPU.
    accelerator-type
    Type du Cloud TPU à créer.
    zone
    Zone dans laquelle vous prévoyez de créer votre Cloud TPU.
    name
    Nom de la ressource Cloud TPU à créer.
    tf-version
    La version de Tensorflow que gcloud compute tpus execution-groups installe sur la VM.
  3. Mettez à jour les variables d'environnement TPU_NAME, MODEL_DIR et ACCELERATOR_TYPE.

    (vm)$ export TPU_NAME=mask-rcnn-tutorial
    (vm)$ export ACCELERATOR_TYPE=v3-32
    (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/mask-rcnn-pods
    
  4. Commencez le script d'entraînement.

    (vm)$ python3 tpu/models/official/mask_rcnn/mask_rcnn_main.py \
      --use_tpu=True \
      --tpu=${TPU_NAME} \
      --iterations_per_loop=500 \
      --model_dir=${MODEL_DIR} \
      --num_cores=32 \
      --mode="train" \
      --config_file="/usr/share/tpu/models/official/mask_rcnn/configs/cloud/${ACCELERATOR_TYPE}.yaml" \
      --params_override="checkpoint=${RESNET_CHECKPOINT}, training_file_pattern=${TRAIN_FILE_PATTERN}, validation_file_pattern=${EVAL_FILE_PATTERN}, val_json_file=${VAL_JSON_FILE}"
      

    Description des options de commande

    use_tpu
    Définissez l'option true pour l'entraînement sur un Cloud TPU.
    tpu
    Nom du Cloud TPU utilisé pour exécuter l'entraînement ou l'évaluation.
    iterations_per_loop
    Nombre d'itérations à terminer en une seule époque.
    model_dir
    Le bucket Cloud Storage dans lequel les points de contrôle et les résumés sont stockés pendant l'entraînement. Vous pouvez utiliser un dossier existant pour charger des points de contrôle générés précédemment sur un TPU de la même taille et de la même version de TensorFlow.
    num_cores
    Nombre de cœurs Cloud TPU à utiliser lors de l'entraînement.
    mode
    Spécifiez l'un des types suivants : train, eval ou train_and_eval.
    config_file
    Fichier de configuration utilisé par le script d'entraînement/d'évaluation.
    params_override
    Chaîne JSON qui remplace les paramètres de script par défaut. Pour en savoir plus sur les paramètres de script, consultez /usr/share/models/official/vision/detection/main.py.

Une fois l'opération terminée, le résultat du script d'entraînement devrait ressembler à ceci:

I1201 07:22:49.762461 139992247961344 tpu_estimator.py:616] Shutdown TPU system.
INFO:tensorflow:Loss for final step: 0.7160271.

Évaluer le modèle

Au cours de cette étape, vous utilisez un seul nœud Cloud TPU pour évaluer le modèle entraîné ci-dessus par rapport à l'ensemble de données COCO. L'évaluation dure environ 10 minutes.

  1. Supprimez la ressource Cloud TPU que vous avez créée pour entraîner le modèle sur un pod.

    (vm)$ gcloud compute tpus execution-groups delete mask-rcnn-tutorial \
      --tpu-only \
      --zone=europe-west4-a
      
  2. Démarrez un Cloud TPU v2-8 pour exécuter l'évaluation. Utilisez le même nom que celui utilisé pour la VM Compute Engine, qui devrait toujours être en cours d'exécution.

    (vm)$ gcloud compute tpus execution-groups create --tpu-only \
      --accelerator-type=v2-8 \
      --zone=europe-west4-a \
      --name=mask-rcnn-tutorial \
      --tf-version=1.15.5
    

    Description des options de commande

    tpu-only
    Crée un Cloud TPU uniquement. Par défaut, la commande gcloud crée une VM et un Cloud TPU.
    accelerator-type
    Type du Cloud TPU à créer.
    zone
    Zone dans laquelle vous prévoyez de créer votre Cloud TPU.
    name
    Nom de la ressource Cloud TPU à créer.
    tf-version
    La version de Tensorflow que gcloud installe sur la VM.
  3. Commencez l'évaluation.

    (vm)$ python3 tpu/models/official/mask_rcnn/mask_rcnn_main.py \
      --use_tpu=True \
      --tpu=${TPU_NAME} \
      --iterations_per_loop=500 \
      --mode=eval \
      --model_dir=${MODEL_DIR} \
      --config_file="/usr/share/tpu/models/official/mask_rcnn/configs/cloud/${ACCELERATOR_TYPE}.yaml" \
      --params_override="checkpoint=${CHECKPOINT},training_file_pattern=${PATH_GCS_MASKRCNN}/train-*,val_json_file=${PATH_GCS_MASKRCNN}/instances_val2017.json,validation_file_pattern=${PATH_GCS_MASKRCNN}/val-*,init_learning_rate=0.28,learning_rate_levels=[0.028, 0.0028, 0.00028],learning_rate_steps=[6000, 8000, 10000],momentum=0.95,num_batch_norm_group=1,num_steps_per_eval=500,global_gradient_clip_ratio=0.02,total_steps=11250,train_batch_size=512,warmup_steps=1864"
      

    Description des options de commande

    use_tpu
    Utilisez un TPU pour l'entraînement ou l'évaluation
    tpu
    Nom du Cloud TPU utilisé pour exécuter l'entraînement ou l'évaluation.
    iterations_per_loop
    Nombre d'itérations à terminer en une seule époque.
    mode
    Spécifiez l'un des types suivants : train, eval ou train_and_eval.
    model_dir
    Le bucket Cloud Storage dans lequel les points de contrôle et les résumés sont stockés pendant l'entraînement. Vous pouvez utiliser un dossier existant pour charger des points de contrôle générés précédemment sur un TPU de la même taille et de la même version de TensorFlow.
    config_file
    Fichier de configuration utilisé par le script d'entraînement/d'évaluation.

Nettoyer

Pour éviter que les ressources utilisées lors de ce tutoriel soient facturées sur votre compte Google Cloud, supprimez le projet contenant les ressources, ou conservez le projet et les ressources individuelles.

Nettoyez l'instance de VM Compute Engine et les ressources Cloud TPU.

  1. Déconnectez-vous de l'instance Compute Engine, si vous ne l'avez pas déjà fait :

    (vm)$ exit
    

    Votre invite devrait maintenant être username@projectname, indiquant que vous êtes dans Cloud Shell.

  2. Dans Cloud Shell, utilisez la commande suivante pour supprimer la VM Compute Engine et votre ressource Cloud TPU :

    $ gcloud compute tpus execution-groups delete mask-rcnn-tutorial \
      --zone=europe-west4-a
    
  3. Vérifiez que les ressources ont été supprimées en exécutant gcloud compute tpus execution-groups list. La suppression peut prendre plusieurs minutes. Si vous obtenez une réponse semblable à celle présentée ci-dessous, vos instances ont bien été supprimées.

    $ gcloud compute tpus execution-groups list \
     --zone=europe-west4-a
    

    Vous devriez voir une liste vide de TPU comme ci-dessous:

       NAME             STATUS
    
  4. Supprimez votre bucket Cloud Storage à l'aide de gsutil, comme illustré ci-dessous. Remplacez bucket-name par le nom de votre bucket Cloud Storage.

    $ gsutil rm -r gs://bucket-name
    

Étape suivante

Dans ce tutoriel, vous avez entraîné le modèle Mask-RCNN à l'aide d'un exemple d'ensemble de données. Les résultats de cet entraînement ne sont pas utilisables pour l'inférence dans la plupart des cas. Afin d'utiliser un modèle pour l'inférence, vous pouvez entraîner les données sur un ensemble de données accessible au public ou sur votre propre ensemble de données. Les modèles entraînés sur des appareils Cloud TPU nécessitent des ensembles de données au format TFRecord.

Vous pouvez utiliser l'exemple d'outil de conversion d'ensemble de données pour convertir un ensemble de données de classification d'images au format TFRecord. Si vous n'utilisez pas de modèle de classification d'images, vous devez convertir vous-même votre ensemble de données au format TFRecord. Pour en savoir plus, consultez la section TFRecord et tf.Example.

Réglages d'hyperparamètres

Pour améliorer les performances du modèle avec votre ensemble de données, vous pouvez régler ses hyperparamètres. Vous trouverez des informations sur les hyperparamètres communs à tous les modèles compatibles avec des TPU sur GitHub. Des informations sur les hyperparamètres spécifiques au modèle sont disponibles dans le code source de chaque modèle. Pour en savoir plus sur ces réglages, consultez les pages Présentation des réglages d'hyperparamètres, Utiliser le service de réglage d'hyperparamètres et Régler les hyperparamètres.

Inférence

Une fois que vous avez entraîné votre modèle, vous pouvez l'utiliser pour l'inférence (également appelée prédiction). AI Platform est une solution basée sur le cloud permettant de développer, d'entraîner et de déployer des modèles de machine learning. Une fois un modèle déployé, vous pouvez utiliser le service AI Platform Prediction.