Présentation
Ce tutoriel explique comment exécuter le modèle Mask RCNN à l'aide de Cloud TPU avec l'ensemble de données COCO.
Le système Mask RCNN est un réseau de neurones profond conçu pour la détection d'objets et la segmentation d'images, l'une des étapes les plus difficiles pour la vision par ordinateur.
Le modèle Mask RCNN génère des cadres de délimitation et des masques de segmentation pour chaque instance d'un objet dans l'image. Le modèle est basé sur le réseau de pyramides à caractéristiques (FPN) et sur un réseau backbone ResNet50.
Ce tutoriel utilise Tensorflow Keras APIs
pour entraîner le modèle. L'API Keras est une API TensorFlow de haut niveau pouvant être utilisée pour créer et exécuter un modèle de machine learning sur Cloud TPU. Cette API simplifie le processus de développement des modèles en masquant la plupart des mises en œuvre de bas niveau, ce qui facilite le basculement entre le TPU et d'autres plates-formes telles que le GPU ou le processeur.
Dans ces instructions, nous partons du principe que vous savez déjà entraîner un modèle sur Cloud TPU. Si vous découvrez Cloud TPU, vous trouverez les instructions de base sur la page Démarrage rapide.
Objectifs
- Préparer l'ensemble de données COCO
- Créer un bucket Cloud Storage pour stocker votre ensemble de données et la sortie du modèle
- Configurer les ressources TPU pour l'entraînement et l'évaluation
- Exécuter les tâches d'entraînement et d'évaluation sur un seul Cloud TPU ou sur un pod Cloud TPU
Coûts
Dans ce document, vous utilisez les composants facturables suivants de Google Cloud :
- Compute Engine
- Cloud TPU
- Cloud Storage
Obtenez une estimation des coûts en fonction de votre utilisation prévue à l'aide du simulateur de coût.
Avant de commencer
Avant de commencer ce tutoriel, vérifiez que votre projet Google Cloud est correctement configuré.
- Connectez-vous à votre compte Google Cloud. Si vous débutez sur Google Cloud, créez un compte pour évaluer les performances de nos produits en conditions réelles. Les nouveaux clients bénéficient également de 300 $ de crédits gratuits pour exécuter, tester et déployer des charges de travail.
-
Dans Google Cloud Console, sur la page de sélection du projet, sélectionnez ou créez un projet Google Cloud.
-
Vérifiez que la facturation est activée pour votre projet Google Cloud.
-
Dans Google Cloud Console, sur la page de sélection du projet, sélectionnez ou créez un projet Google Cloud.
-
Vérifiez que la facturation est activée pour votre projet Google Cloud.
Ce tutoriel utilise des composants facturables de Google Cloud. Consultez la grille tarifaire de Cloud TPU pour estimer vos coûts. Veillez à nettoyer les ressources que vous avez créées lorsque vous avez terminé, afin d'éviter des frais inutiles.
Préparer l'ensemble de données COCO
Ce tutoriel utilise l'ensemble de données COCO. L'ensemble de données doit être au format TFRecord sur un bucket Cloud Storage à utiliser pour l'entraînement.
Si vous avez déjà préparé l'ensemble de données COCO sur un bucket Cloud Storage situé dans la zone que vous utiliserez pour entraîner le modèle, vous pouvez accéder directement à l'entraînement sur un seul appareil. Sinon, procédez comme suit pour préparer l'ensemble de données.
Ouvrez une fenêtre Cloud Shell.
Dans Cloud Shell, configurez
gcloud
avec l'ID de votre projet.export PROJECT_ID=project-id gcloud config set project ${PROJECT_ID}
Dans Cloud Shell, créez un bucket Cloud Storage à l'aide de la commande suivante :
gsutil mb -p ${PROJECT_ID} -c standard -l europe-west4 gs://bucket-name
Lancez une instance de VM Compute Engine.
Cette instance de VM sera uniquement utilisée pour télécharger et prétraiter l'ensemble de données COCO. Saisissez le nom de votre choix dans le champ instance-name.
$ gcloud compute tpus execution-groups create \ --vm-only \ --name=instance-name \ --zone=europe-west4-a \ --disk-size=300 \ --machine-type=n1-standard-16 \ --tf-version=2.12.0
Description des options de commande
vm-only
- Pour créer une VM uniquement. Par défaut, la commande
gcloud compute tpus execution-groups
crée une VM et un Cloud TPU. name
- Nom du Cloud TPU à créer.
zone
- Zone dans laquelle vous prévoyez de créer la ressource Cloud TPU.
disk-size
- Taille du disque dur en Go de la VM créée par la commande
gcloud compute tpus execution-groups
. machine-type
- Type de machine de la VM Compute Engine à créer.
tf-version
- Version de TensorFlow
gcloud compute tpus execution-groups
installée sur la VM.
Si vous n'êtes pas automatiquement connecté à l'instance Compute Engine, connectez-vous en exécutant la commande
ssh
suivante. Lorsque vous êtes connecté à la VM, votre invite d'interface système passe deusername@vm-name
àusername@projectname
:$ gcloud compute ssh instance-name --zone=europe-west4-a
Configurez deux variables : une pour le bucket de stockage créé précédemment et une pour le répertoire contenant les données d'entraînement (DATA_DIR) dans le bucket de stockage.
(vm)$ export STORAGE_BUCKET=gs://bucket-name
(vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco
Installez les packages nécessaires au prétraitement des données.
(vm)$ sudo apt-get install -y python3-tk && \ pip3 install --user Cython matplotlib opencv-python-headless pyyaml Pillow && \ pip3 install --user "git+https://github.com/cocodataset/cocoapi#egg=pycocotools&subdirectory=PythonAPI"
Exécutez le script
download_and_preprocess_coco.sh
pour convertir l'ensemble de données COCO en fichiers TFRecord (*.tfrecord
), ce qui correspond au format attendu par l'application d'entraînement.(vm)$ git clone https://github.com/tensorflow/tpu.git (vm)$ sudo bash tpu/tools/datasets/download_and_preprocess_coco.sh ./data/dir/coco
Cela installe les bibliothèques requises et exécute le script de prétraitement. Il génère un certain nombre de fichiers
*.tfrecord
dans votre répertoire de données local. L'exécution du script de téléchargement et de conversion COCO prend environ une heure.Copier les données dans votre bucket Cloud Storage
Après avoir converti les données en TFRecord, copiez-les depuis le stockage local vers votre bucket Cloud Storage à l'aide de la commande
gsutil
. Vous devez également copier les fichiers d'annotation. Ces fichiers vous aident à valider les performances du modèle.(vm)$ gsutil -m cp ./data/dir/coco/*.tfrecord ${DATA_DIR} (vm)$ gsutil cp ./data/dir/coco/raw-data/annotations/*.json ${DATA_DIR}
Nettoyer les ressources de la VM
Une fois l'ensemble de données COCO converti au format TFRecord et copié dans le bucket DATA_DIR sur votre bucket Cloud Storage, vous pouvez supprimer l'instance Compute Engine.
Déconnectez-vous de l'instance Compute Engine :
(vm)$ exit
Votre invite devrait maintenant être
username@projectname
, indiquant que vous êtes dans Cloud Shell.Supprimez votre instance Compute Engine.
$ gcloud compute instances delete instance-name --zone=europe-west4-a
Entraînement sur un seul appareil Cloud TPU
Ouvrez une fenêtre Cloud Shell.
Créez une variable d'environnement pour l'ID de votre projet.
export PROJECT_ID=project-id
Configurez Google Cloud CLI pour utiliser le projet dans lequel vous souhaitez créer la ressource Cloud TPU.
gcloud config set project ${PROJECT_ID}
La première fois que vous exécutez cette commande dans une nouvelle VM Cloud Shell, une page
Authorize Cloud Shell
s'affiche. Cliquez surAuthorize
en bas de la page pour autorisergcloud
à effectuer des appels d'API Google Cloud avec vos identifiants.Créez un compte de service pour le projet Cloud TPU.
gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
La commande renvoie un compte de service Cloud TPU au format suivant :
service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
Exporter les variables de configuration TPU
Exportez votre ID de projet, le nom que vous souhaitez utiliser pour vos ressources TPU, ainsi que la zone dans laquelle vous allez entraîner le modèle et stocker toutes les données liées à l'entraînement.
$ export TPU_NAME=mask-rcnn-tutorial $ export ZONE=europe-west4-a
Lancez une VM Compute Engine et Cloud TPU à l'aide de la commande
gcloud
. La commande à utiliser varie selon que vous utilisez des VM TPU ou des nœuds TPU. Pour en savoir plus sur les deux architectures de VM, consultez la page Architecture du système.VM TPU
$ gcloud compute tpus tpu-vm create mask-rcnn-tutorial \ --zone=europe-west4-a \ --accelerator-type=v3-8 \ --version=tpu-vm-tf-2.16.1-pjrt
Description des options de commande
zone
- Zone dans laquelle vous prévoyez de créer la ressource Cloud TPU.
accelerator-type
- Le type d'accélérateur spécifie la version et la taille de la ressource Cloud TPU que vous souhaitez créer. Pour en savoir plus sur les types d'accélérateurs compatibles avec chaque version de TPU, consultez la section Versions de TPU.
version
- Version du logiciel Cloud TPU.
Nœud TPU
$ gcloud compute tpus execution-groups create \ --zone=europe-west4-a \ --name=mask-rcnn-tutorial \ --accelerator-type=v3-8 \ --machine-type=n1-standard-8 \ --disk-size=300 \ --tf-version=2.12.0
Description des options de commande
zone
- Zone dans laquelle vous prévoyez de créer la ressource Cloud TPU.
name
- Nom du TPU. Si aucune valeur n'est spécifiée, votre nom d'utilisateur est utilisé par défaut.
accelerator-type
- Type de Cloud TPU à créer.
machine-type
- Type de machine de la VM Compute Engine à créer.
disk-size
- Taille du volume racine de votre VM Compute Engine (en Go).
tf-version
- Version de TensorFlow
gcloud
installée sur la VM.
Pour en savoir plus sur la commande
gcloud
, consultez la documentation de référence de gcloud.Si vous n'êtes pas automatiquement connecté à l'instance Compute Engine, connectez-vous en exécutant la commande
ssh
suivante. Lorsque vous êtes connecté à la VM, votre invite d'interface système passe deusername@vm-name
àusername@projectname
:VM TPU
gcloud compute tpus tpu-vm ssh mask-rcnn-tutorial --zone=europe-west4-a
Nœud TPU
gcloud compute tpus execution-groups ssh mask-rcnn-tutorial --zone=europe-west4-a
Installez la configuration requise pour TensorFlow.
La commande à utiliser varie selon que vous utilisez des VM TPU ou des nœuds TPU.
VM TPU
(vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt
Nœud TPU
(vm)$ pip3 install --user -r /usr/share/models/official/requirements.txt
Définissez la variable de nom Cloud TPU.
VM TPU
(vm)$ export TPU_NAME=local
Nœud TPU
(vm)$ export TPU_NAME=mask-rcnn-tutorial
Configurez les variables d'environnement suivantes en remplaçant bucket-name par le nom du bucket Cloud Storage qui stocke l'ensemble de données COCO :
(vm)$ export STORAGE_BUCKET=gs://bucket-name
Ajoutez les variables d'environnement pour les répertoires de données et de modèles.
(vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/mask-rcnn
Ajoutez les variables d'environnement requises supplémentaires :
(vm)$ export RESNET_CHECKPOINT=gs://cloud-tpu-checkpoints/retinanet/resnet50-checkpoint-2018-02-07 (vm)$ export TRAIN_FILE_PATTERN=${DATA_DIR}/train-* (vm)$ export EVAL_FILE_PATTERN=${DATA_DIR}/val-* (vm)$ export VAL_JSON_FILE=${DATA_DIR}/instances_val2017.json
Définissez la variable d'environnement
PYTHONPATH
:VM TPU
(vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/tpu/models"
Nœud TPU
(vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/models"
Lors de la création de votre TPU, si vous définissez le paramètre
--version
sur une version se terminant par-pjrt
, définissez les variables d'environnement suivantes pour activer l'environnement d'exécution PJRT:(vm)$ export NEXT_PLUGGABLE_DEVICE_USE_C_API=true (vm)$ export TF_PLUGGABLE_DEVICE_LIBRARY_PATH=/lib/libtpu.so
Accédez au répertoire où le modèle est stocké :
VM TPU
(vm)$ cd /usr/share/tpu/models/official/vision
Nœud TPU
(vm)$ cd /usr/share/models/official/legacy/detection
Le script suivant exécute un exemple d'entraînement qui permet d'entraîner 10 pas d'entraînement et 10 pas d'évaluation. L'opération prend environ six minutes sur un TPU v3-8. L'entraînement à la conversion nécessite environ 22 500 étapes et environ 6 heures sur un TPU v3-8.
Exécutez la commande suivante pour entraîner le modèle Mask-RCNN :
(vm)$ python3 train.py \ --tpu=${TPU_NAME} \ --experiment=maskrcnn_resnetfpn_coco \ --mode=train_and_eval \ --config_file=configs/experiments/maskrcnn/r50fpn_640_coco_scratch_tpu4x4.yaml \ --model_dir=${MODEL_DIR} \ --params_override="task.train_data.input_path=${TRAIN_FILE_PATTERN},task.validation_data.input_path=${EVAL_FILE_PATTERN},task.annotation_file=${VAL_JSON_FILE},runtime.distribution_strategy=tpu,trainer.train_steps=10,trainer.validation_steps=10,task.train_data.global_batch_size=8,task.validation_data.global_batch_size=8"
Description des options de commande
strategy_type
- Stratégie de distribution.
tpu
- Nom de votre TPU.
- Spécifie le répertoire dans lequel les points de contrôle et les résumés sont stockés lors de l'entraînement du modèle. Si ce dossier n'existe pas, le programme le crée. Lorsque vous utilisez un Cloud TPU, le répertoire
model_dir
doit être un chemin d'accès à Cloud Storage ("gs://..."). Vous pouvez réutiliser un dossier existant pour charger les données de point de contrôle actuelles et stocker des points de contrôle supplémentaires tant que les points de contrôle précédents ont été créés avec un TPU de la même taille et la même version de TensorFlow.
model_dir
Une fois l'entraînement terminé, un message semblable au suivant s'affiche :
{'frcnn_box_loss': 0.033865165, 'frcnn_cls_loss': 1.2535654, 'learning_rate': 0.008266499, 'mask_loss': 1.2039567, 'model_loss': 2.821458, 'rpn_box_loss': 0.034982488, 'rpn_score_loss': 0.2950886, 'total_loss': 4.340171, 'training_loss': 4.340171} train | step: 10 | steps/sec: 0.1 | output: {'frcnn_box_loss': 0.033865165, 'frcnn_cls_loss': 1.2535654, 'learning_rate': 0.008266499, 'mask_loss': 1.2039567, 'model_loss': 2.821458, 'rpn_box_loss': 0.034982488, 'rpn_score_loss': 0.2950886, 'total_loss': 4.340171, 'training_loss': 4.340171}
Elle est suivie du résultat des étapes d'évaluation.
Vous avez terminé l'entraînement et l'évaluation sur un seul appareil. Suivez la procédure ci-dessous pour supprimer les ressources TPU individuelles actuelles.
Déconnectez-vous de l'instance Compute Engine :
(vm)$ exit
Votre invite devrait maintenant être
username@projectname
, indiquant que vous êtes dans Cloud Shell.Supprimez la ressource TPU.
VM TPU
$ gcloud compute tpus tpu-vm delete mask-rcnn-tutorial \ --zone=europe-west4-a
Description des options de commande
zone
- Zone dans laquelle se trouve votre Cloud TPU.
Nœud TPU
$ gcloud compute tpus execution-groups delete mask-rcnn-tutorial \ --tpu-only \ --zone=europe-west4-a
Description des options de commande
tpu-only
- Ne supprime que le Cloud TPU. La VM reste disponible.
zone
- Zone contenant le TPU à supprimer.
À ce stade, vous pouvez terminer ce tutoriel et effectuer un nettoyage, ou continuer à explorer l'exécution du modèle sur des pods Cloud TPU.
Mettre à l'échelle votre modèle avec les pods Cloud TPU
L'entraînement de votre modèle sur des pods Cloud TPU peut nécessiter certaines modifications de votre script d'entraînement. Pour en savoir plus, consultez la section Entraîner sur des pods TPU.
Entraînement avec un pod TPU
Ouvrez une fenêtre Cloud Shell.
Créez une variable pour l'ID de votre projet.
export PROJECT_ID=project-id
Configurez Google Cloud CLI pour utiliser le projet dans lequel vous souhaitez créer Cloud TPU.
gcloud config set project ${PROJECT_ID}
La première fois que vous exécutez cette commande dans une nouvelle VM Cloud Shell, une page
Authorize Cloud Shell
s'affiche. Cliquez surAuthorize
en bas de la page pour autorisergcloud
à effectuer des appels d'API Google Cloud avec vos identifiants.Créez un compte de service pour le projet Cloud TPU.
Les comptes de service permettent au service Cloud TPU d'accéder à d'autres services Google Cloud.
gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
La commande renvoie un compte de service Cloud TPU au format suivant :
service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
Si vous avez déjà préparé l'ensemble de données COCO et l'avez déplacé vers votre bucket de stockage, vous pouvez le réutiliser pour l'entraînement sur pod. Si vous n'avez pas encore préparé l'ensemble de données COCO, préparez-le maintenant et revenez ici pour configurer l'entraînement sur pod.
Lancer un pod Cloud TPU
Ce tutoriel spécifie un pod v3-32. Pour les autres options de pod, consultez la section Versions de TPU.
VM TPU
$ gcloud compute tpus tpu-vm create mask-rcnn-tutorial \ --zone=europe-west4-a \ --accelerator-type=v3-32 \ --version=tpu-vm-tf-2.16.1-pod-pjrt
Description des options de commande
zone
- Zone dans laquelle vous prévoyez de créer la ressource Cloud TPU.
accelerator-type
- Le type d'accélérateur spécifie la version et la taille de la ressource Cloud TPU que vous souhaitez créer. Pour en savoir plus sur les types d'accélérateurs compatibles avec chaque version de TPU, consultez la section Versions de TPU.
version
- Version du logiciel Cloud TPU.
Nœud TPU
(vm)$ gcloud compute tpus execution-groups create \ --zone=europe-west4-a \ --name=mask-rcnn-tutorial \ --accelerator-type=v3-32 \ --tf-version=2.12.0
Description des options de commande
zone
- Zone dans laquelle vous prévoyez de créer la ressource Cloud TPU.
tpu-only
- Crée uniquement le Cloud TPU. Par défaut, la commande
gcloud compute tpus execution-groups
crée à la fois une VM et un Cloud TPU. accelerator-type
- Type de Cloud TPU à créer.
tf-version
- Version de TensorFlow
gcloud
installée sur la VM.
Si vous n'êtes pas automatiquement connecté à l'instance Compute Engine, connectez-vous en exécutant la commande
ssh
suivante. Lorsque vous êtes connecté à la VM, votre invite d'interface système passe deusername@vm-name
àusername@projectname
:VM TPU
gcloud compute tpus tpu-vm ssh mask-rcnn-tutorial --zone=europe-west4-a
Nœud TPU
gcloud compute ssh mask-rcnn-tutorial --zone=europe-west4-a
Installez la configuration requise pour TensorFlow.
La commande à utiliser varie selon que vous utilisez des VM TPU ou des nœuds TPU.
VM TPU
(vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt
Nœud TPU
(vm)$ pip3 install --user -r /usr/share/models/official/requirements.txt
Le script d'entraînement nécessite un package supplémentaire. Installez-le maintenant :
(vm)$ pip3 install --user tensorflow-model-optimization>=0.1.3
Définissez la variable de nom Cloud TPU.
(vm)$ export TPU_NAME=mask-rcnn-tutorial
Configurez les variables d'environnement suivantes en remplaçant bucket-name par le nom de votre bucket Cloud Storage :
(vm)$ export STORAGE_BUCKET=gs://bucket-name
Ajoutez les variables d'environnement requises supplémentaires :
(vm)$ export RESNET_CHECKPOINT=gs://cloud-tpu-checkpoints/retinanet/resnet50-checkpoint-2018-02-07 (vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco (vm)$ export TRAIN_FILE_PATTERN=${DATA_DIR}/train-* (vm)$ export EVAL_FILE_PATTERN=${DATA_DIR}/val-* (vm)$ export VAL_JSON_FILE=${DATA_DIR}/instances_val2017.json (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/mask-rcnn-pod
Définissez la variable d'environnement
PYTHONPATH
:VM TPU
(vm)$ export PYTHONPATH="/usr/share/tpu/models:${PYTHONPATH}" (vm)$ export TPU_LOAD_LIBRARY=0
Nœud TPU
(vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/models"
Accédez au répertoire où le modèle est stocké :
VM TPU
(vm)$ cd /usr/share/tpu/models/official/vision
Nœud TPU
(vm)$ cd /usr/share/models/official/legacy/detection
Entraîner le modèle
Cette procédure entraîne le modèle sur l'ensemble de données COCO pour 10 pas d'entraînement. Cet entraînement prend environ 10 minutes sur un Cloud TPU v3-32.
VM TPU
(vm)$ python3 train.py \ --tpu=${TPU_NAME} \ --experiment=maskrcnn_resnetfpn_coco \ --mode=train_and_eval \ --config_file=configs/experiments/maskrcnn/r50fpn_640_coco_scratch_tpu4x4.yaml \ --model_dir=${MODEL_DIR} \ --params_override="task.train_data.input_path=${TRAIN_FILE_PATTERN},task.validation_data.input_path=${EVAL_FILE_PATTERN},task.annotation_file=${VAL_JSON_FILE},runtime.distribution_strategy=tpu,trainer.train_steps=10,trainer.validation_steps=10,task.train_data.global_batch_size=256,task.validation_data.global_batch_size=256"
Description des options de commande
tpu
- Nom de votre TPU.
model_dir
- Spécifie le répertoire dans lequel les points de contrôle et les résumés sont stockés lors de l'entraînement du modèle. Si ce dossier est absent, le programme le crée. Lorsque vous utilisez Cloud TPU, le
model_dir
doit être un chemin Cloud Storage (gs://...
). Vous pouvez réutiliser un dossier existant pour charger les données de point de contrôle actuelles et stocker des points de contrôle supplémentaires tant que les précédents ont été créés avec un Cloud TPU de la même taille et la même version de Tensorflow. params_override
- Chaîne JSON qui remplace les paramètres de script par défaut.
Nœud TPU
(vm)$ python3 main.py \ --strategy_type=tpu \ --tpu=${TPU_NAME} \ --model_dir=${MODEL_DIR} \ --mode=train \ --model=mask_rcnn \ --params_override="{train: { batch_size: 128, iterations_per_loop: 500, total_steps: 20, learning_rate: {'learning_rate_levels': [0.008, 0.0008], 'learning_rate_steps': [10000, 13000] }, checkpoint: { path: ${RESNET_CHECKPOINT}, prefix: resnet50/ }, train_file_pattern: ${TRAIN_FILE_PATTERN} }, eval: { val_json_file: ${VAL_JSON_FILE}, eval_file_pattern: ${EVAL_FILE_PATTERN}} }"
Description des options de commande
tpu
- Nom de votre TPU.
model_dir
- Spécifie le répertoire dans lequel les points de contrôle et les résumés sont stockés lors de l'entraînement du modèle. Si ce dossier est absent, le programme le crée. Lorsque vous utilisez Cloud TPU, le
model_dir
doit être un chemin Cloud Storage (gs://...
). Vous pouvez réutiliser un dossier existant pour charger les données de point de contrôle actuelles et stocker des points de contrôle supplémentaires tant que les précédents ont été créés avec un Cloud TPU de la même taille et la même version de Tensorflow. params_override
- Chaîne JSON qui remplace les paramètres de script par défaut.
Une fois l'entraînement terminé, un message semblable au suivant s'affiche :
I0706 19:47:16.108213 139955064548416 controller.py:457] train | step: 10 | steps/sec: 0.1 | output: {'frcnn_box_loss': 0.05632668, 'frcnn_cls_loss': 1.3012192, 'learning_rate': 0.008266499, 'mask_loss': 1.2371812, 'model_loss': 2.9746659, 'rpn_box_loss': 0.08227444, 'rpn_score_loss': 0.2976642, 'total_loss': 4.493513, 'training_loss': 4.493513} train | step: 10 | steps/sec: 0.1 | output: {'frcnn_box_loss': 0.05632668, 'frcnn_cls_loss': 1.3012192, 'learning_rate': 0.008266499, 'mask_loss': 1.2371812, 'model_loss': 2.9746659, 'rpn_box_loss': 0.08227444, 'rpn_score_loss': 0.2976642, 'total_loss': 4.493513, 'training_loss': 4.493513}
Effectuer un nettoyage
Pour éviter que les ressources utilisées lors de ce tutoriel soient facturées sur votre compte Google Cloud, supprimez le projet contenant les ressources, ou conservez le projet et supprimez les ressources individuelles.
Après avoir exécuté l'entraînement, supprimez la VM TPU et votre bucket de stockage.
Déconnectez-vous de l'instance Compute Engine, si vous ne l'avez pas déjà fait :
(vm)$ exit
Votre invite devrait maintenant être
username@projectname
, indiquant que vous êtes dans Cloud Shell.Supprimez vos ressources Cloud TPU et Compute Engine. La commande à utiliser pour supprimer vos ressources varie selon que vous utilisez des VM TPU ou des nœuds TPU. Pour en savoir plus, consultez la page Architecture du système.
VM TPU
$ gcloud compute tpus tpu-vm delete mask-rcnn-tutorial \ --zone=europe-west4-a
Nœud TPU
$ gcloud compute tpus execution-groups delete mask-rcnn-tutorial \ --zone=europe-west4-a
Vérifiez que les ressources ont été supprimées en exécutant la commande
gcloud compute tpus execution-groups list
. La suppression peut prendre plusieurs minutes. Le résultat de la commande suivante ne doit inclure aucune des ressources TPU créées dans ce tutoriel:$ gcloud compute tpus execution-groups list --zone=europe-west4-a
Exécutez
gsutil
comme indiqué, en remplaçant bucket-name par le nom du bucket Cloud Storage que vous avez créé pour ce tutoriel :$ gsutil rm -r gs://bucket-name
Étapes suivantes
Les tutoriels TensorFlow Cloud TPU permettent généralement d'entraîner le modèle à l'aide d'un exemple d'ensemble de données. Les résultats de cet entraînement ne sont pas utilisables pour l'inférence. Pour utiliser un modèle pour l'inférence, vous pouvez entraîner les données sur un ensemble de données public ou sur votre propre ensemble de données. Les modèles TensorFlow entraînés sur des Cloud TPU nécessitent généralement que les ensembles de données soient au format TFRecord.
Vous pouvez utiliser l'exemple d'outil de conversion d'ensemble de données pour convertir un ensemble de données de classification d'images au format TFRecord. Si vous n'utilisez pas de modèle de classification d'images, vous devrez convertir votre ensemble de données au format TFRecord. Pour en savoir plus, consultez TFRecord et tf.Example.
Régler les hyperparamètres
Pour améliorer les performances du modèle avec votre ensemble de données, vous pouvez régler les hyperparamètres du modèle. Vous trouverez des informations sur les hyperparamètres communs à tous les modèles compatibles avec TPU sur GitHub. Des informations sur les hyperparamètres propres aux modèles sont disponibles dans le code source de chaque modèle. Pour en savoir plus sur ces réglages, consultez les pages Présentation du réglage des hyperparamètres et Régler les hyperparamètres.
Inférence
Une fois que vous avez entraîné votre modèle, vous pouvez l'utiliser pour l'inférence (également appelée prédiction). Vous pouvez utiliser le convertisseur d'inférence Cloud TPU pour préparer et optimiser un modèle TensorFlow pour l'inférence sur Cloud TPU v5e. Pour plus d'informations sur l'inférence sur Cloud TPU v5e, consultez la page Présentation de l'inférence pour Cloud TPU v5e.
- Découvrez les outils TPU dans TensorBoard.