Ce document explique comment exécuter le modèle ShapeMask à l'aide de Cloud TPU avec l'ensemble de données COCO.
Les instructions ci-dessous supposent que vous savez comment exécuter un modèle sur Cloud TPU. Si vous débutez avec Cloud TPU, consultez le guide de démarrage rapide pour en savoir plus.
Si vous prévoyez d'effectuer l'entraînement sur une tranche de pod TPU, consultez la section Entraîner sur des pods TPU pour comprendre les modifications de paramètres requises pour les tranches de pods.
Objectifs
- Préparer l'ensemble de données COCO
- Créer un bucket Cloud Storage pour stocker votre ensemble de données et la sortie du modèle
- Configurer les ressources TPU pour l'entraînement et l'évaluation
- Exécuter les tâches d'entraînement et d'évaluation sur un seul Cloud TPU ou sur un pod Cloud TPU
Coûts
Dans ce document, vous utilisez les composants facturables suivants de Google Cloud :
- Compute Engine
- Cloud TPU
- Cloud Storage
Obtenez une estimation des coûts en fonction de votre utilisation prévue à l'aide du simulateur de coût.
Avant de commencer
Avant de commencer ce tutoriel, vérifiez que votre projet Google Cloud est correctement configuré.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
Ce tutoriel utilise des composants facturables de Google Cloud. Consultez la grille tarifaire de Cloud TPU pour estimer vos coûts. Veillez à nettoyer les ressources que vous avez créées lorsque vous avez terminé, afin d'éviter des frais inutiles.
Entraînement sur un seul appareil Cloud TPU
Cette section fournit des informations sur la configuration des ressources Cloud Storage, de VM et Cloud TPU pour l'entraînement sur un seul appareil.
Si vous prévoyez d'effectuer l'entraînement sur une tranche de pod TPU, consultez la section Entraînement sur les pods TPU pour comprendre les modifications nécessaires avant d'effectuer l'entraînement sur des tranches de pods.
Dans Cloud Shell, créez une variable pour l'ID de votre projet.
export PROJECT_ID=project-id
Configurez l'outil de ligne de commande
gcloud
pour utiliser le projet dans lequel vous souhaitez créer Cloud TPU.gcloud config set project ${PROJECT_ID}
La première fois que vous exécutez cette commande dans une nouvelle VM Cloud Shell, une page
Authorize Cloud Shell
s'affiche. Cliquez surAuthorize
en bas de la page pour permettre àgcloud
d'effectuer des appels d'API GCP avec vos identifiants.Créez un compte de service pour le projet Cloud TPU.
gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
La commande renvoie un compte de service Cloud TPU au format suivant :
service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
Préparer l'ensemble de données COCO
Ce tutoriel utilise l'ensemble de données COCO. L'ensemble de données doit être au format TFRecord sur un bucket Cloud Storage à utiliser pour l'entraînement.
L'emplacement du bucket doit se trouver dans la même région que votre machine virtuelle (VM) et votre nœud TPU. Les VM et les nœuds TPU sont situés dans des zones spécifiques, qui sont des subdivisions au sein d'une région.
Ce bucket Cloud Storage stocke les données que vous utilisez pour entraîner votre modèle, ainsi que les résultats de l'entraînement. L'outil gcloud compute tpus execution-groups
utilisé dans ce tutoriel définit les autorisations par défaut pour le compte de service Cloud TPU que vous avez configuré à l'étape précédente. Si vous souhaitez utiliser des autorisations plus précises, vérifiez les autorisations de niveau d'accès.
Si vous avez déjà préparé l'ensemble de données COCO sur un bucket Cloud Storage situé dans la zone que vous utiliserez pour entraîner le modèle, vous pouvez lancer les ressources TPU et préparer Cloud TPU pour l'entraînement. Sinon, procédez comme suit pour préparer l'ensemble de données.
Dans Cloud Shell, créez un bucket Cloud Storage à l'aide de la commande suivante :
gsutil mb -p ${PROJECT_ID} -c standard -l europe-west4 gs://bucket-name
Lancez une instance de VM Compute Engine.
Cette instance de VM sera uniquement utilisée pour télécharger et prétraiter l'ensemble de données COCO. Saisissez le nom de votre choix dans le champ instance-name.
$ gcloud compute tpus execution-groups create \ --vm-only \ --name=instance-name \ --zone=europe-west4-a \ --disk-size=300 \ --machine-type=n1-standard-16 \ --tf-version=2.10.0
Description des options de commande
vm-only
- Pour créer une VM uniquement. Par défaut, la commande
gcloud compute tpus execution-groups
crée une VM et un Cloud TPU. name
- Nom de la ressource Cloud TPU à créer.
zone
- Zone dans laquelle vous prévoyez de créer votre Cloud TPU.
disk-size
- Taille du disque dur en Go de la VM créée par la commande
gcloud compute tpus execution-groups
. machine-type
- Type de machine de la VM Compute Engine à créer.
tf-version
- La version de Tensorflow que
gcloud compute tpus execution-groups
installe sur la VM.
Si vous n'êtes pas automatiquement connecté à l'instance Compute Engine, connectez-vous en exécutant la commande
ssh
suivante. Lorsque vous êtes connecté à la VM, votre invite d'interface système passe deusername@vm-name
àusername@projectname
:$ gcloud compute ssh instance-name --zone=europe-west4-a
Configurez deux variables : une pour le bucket de stockage créé précédemment et une pour le répertoire contenant les données d'entraînement (DATA_DIR) dans le bucket de stockage.
(vm)$ export STORAGE_BUCKET=gs://bucket-name
(vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco
Installez les packages nécessaires au prétraitement des données.
(vm)$ sudo apt-get install -y python3-tk && \ pip3 install --user Cython matplotlib opencv-python-headless pyyaml Pillow && \ pip3 install --user "git+https://github.com/cocodataset/cocoapi#egg=pycocotools&subdirectory=PythonAPI"
Exécutez le script
download_and_preprocess_coco.sh
pour convertir l'ensemble de données COCO en fichiers TFRecord (*.tfrecord
), ce qui correspond au format attendu par l'application d'entraînement.(vm)$ git clone https://github.com/tensorflow/tpu.git (vm)$ sudo bash tpu/tools/datasets/download_and_preprocess_coco.sh ./data/dir/coco
Cela installe les bibliothèques requises et exécute le script de prétraitement. Il génère un certain nombre de fichiers
*.tfrecord
dans votre répertoire de données local. L'exécution du script de téléchargement et de conversion COCO prend environ une heure.Copier les données dans votre bucket Cloud Storage
Après avoir converti les données en TFRecord, copiez-les depuis le stockage local vers votre bucket Cloud Storage à l'aide de la commande
gsutil
. Vous devez également copier les fichiers d'annotation. Ces fichiers vous aident à valider les performances du modèle.(vm)$ gsutil -m cp ./data/dir/coco/*.tfrecord ${DATA_DIR} (vm)$ gsutil cp ./data/dir/coco/raw-data/annotations/*.json ${DATA_DIR}
Nettoyer les ressources de la VM
Une fois l'ensemble de données COCO converti au format TFRecord et copié dans le bucket DATA_DIR sur votre bucket Cloud Storage, vous pouvez supprimer l'instance Compute Engine.
Déconnectez-vous de l'instance Compute Engine :
(vm)$ exit
Votre invite devrait maintenant être
username@projectname
, indiquant que vous êtes dans Cloud Shell.Supprimer votre instance Compute Engine
$ gcloud compute instances delete instance-name --zone=europe-west4-a
Lancer les ressources TPU et entraîner le modèle
Exécutez la commande
gcloud
pour lancer les ressources TPU. La commande à utiliser varie selon que vous utilisez des VM TPU ou des nœuds TPU. Pour en savoir plus sur les deux architectures de VM, consultez la page Architecture du système.VM TPU
$ gcloud compute tpus tpu-vm create shapemask-tutorial \ --zone=europe-west4-a \ --accelerator-type=v3-8 \ --version=tpu-vm-tf-2.7.0
Nœud TPU
$ gcloud compute tpus execution-groups create \ --zone=europe-west4-a \ --name=shapemask-tutorial \ --accelerator-type=v3-8 \ --machine-type=n1-standard-8 \ --disk-size=300 \ --tf-version=2.10.0
Description des options de commande
zone
- Zone dans laquelle vous prévoyez de créer votre Cloud TPU.
name
- Nom du TPU. Si aucune valeur n'est spécifiée, votre nom d'utilisateur est utilisé par défaut.
accelerator-type
- Type du Cloud TPU à créer.
machine-type
- Type de machine de la VM Compute Engine à créer.
disk-size
- Taille du volume racine de votre VM Compute Engine (en Go).
tf-version
- La version de Tensorflow que
gcloud
installe sur la VM.
Pour en savoir plus sur la commande
gcloud
, consultez la documentation de référence de gcloud.Si vous n'êtes pas automatiquement connecté à l'instance Compute Engine, connectez-vous en exécutant la commande
ssh
suivante. Lorsque vous êtes connecté à la VM, votre invite d'interface système passe deusername@vm-name
àusername@projectname
:VM TPU
gcloud compute tpus tpu-vm ssh shapemask-tutorial --zone=europe-west4-a
Nœud TPU
gcloud compute ssh shapemask-tutorial --zone=europe-west4-a
À mesure que vous appliquez ces instructions, exécutez chaque commande commençant par
(vm)$
dans la fenêtre de session de la VM.Installez la configuration requise pour TensorFlow.
VM TPU
(vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt
Nœud TPU
(vm)$ pip3 install -r /usr/share/models/official/requirements.txt
Le script d'entraînement nécessite un package supplémentaire. Installez-le maintenant :
VM TPU
(vm)$ pip3 install --user tensorflow-model-optimization>=0.1.3
Nœud TPU
(vm)$ pip3 install --user tensorflow-model-optimization>=0.1.3
Définissez la variable de nom du bucket de stockage. Remplacez bucket-name par le nom de votre bucket de stockage :
(vm)$ export STORAGE_BUCKET=gs://bucket-name
Définissez la variable de nom Cloud TPU.
VM TPU
(vm)$ export TPU_NAME=local
Nœud TPU
(vm)$ export TPU_NAME=shapemask-tutorial
Définissez la variable d'environnement
PYTHONPATH
:VM TPU
(vm)$ export PYTHONPATH="/usr/share/tpu/models:${PYTHONPATH}"
Nœud TPU
(vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/models"
Accédez au répertoire où le modèle est stocké :
VM TPU
(vm)$ cd /usr/share/tpu/models/official/vision/detection
Nœud TPU
(vm)$ cd /usr/share/models/official/vision/detection
Ajoutez des variables d'environnement obligatoires :
(vm)$ export RESNET_CHECKPOINT=gs://cloud-tpu-checkpoints/retinanet/resnet50-checkpoint-2018-02-07 (vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco (vm)$ export TRAIN_FILE_PATTERN=${DATA_DIR}/train-* (vm)$ export EVAL_FILE_PATTERN=${DATA_DIR}/val-* (vm)$ export VAL_JSON_FILE=${DATA_DIR}/instances_val2017.json (vm)$ export SHAPE_PRIOR_PATH=gs://cloud-tpu-checkpoints/shapemask/kmeans_class_priors_91x20x32x32.npy (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/shapemask
Entraînez le modèle ShapeMask :
Le script suivant exécute un exemple d'entraînement de 100 étapes seulement et dure environ dix minutes sur un TPU v3-8. L'entraînement à la conversion nécessite environ 22 500 étapes et environ 6 heures sur un TPU v3-8.
(vm)$ python3 main.py \ --strategy_type=tpu \ --tpu=${TPU_NAME} \ --model_dir=${MODEL_DIR} \ --mode=train \ --model=shapemask \ --params_override="{train: {total_steps: 100, learning_rate: {init_learning_rate: 0.08, learning_rate_levels: [0.008, 0.0008], learning_rate_steps: [15000, 20000], }, checkpoint: { path: ${RESNET_CHECKPOINT},prefix: resnet50}, train_file_pattern: ${TRAIN_FILE_PATTERN}}, shapemask_head: {use_category_for_mask: true, shape_prior_path: ${SHAPE_PRIOR_PATH}}, shapemask_parser: {output_size: [640, 640]}}"
Description des options de commande
strategy_type
- Pour entraîner le modèle Shapemask sur un TPU, vous devez définir
distribution_strategy
surtpu
. tpu
- Nom du Cloud TPU. Cette valeur est définie à l'aide de la variable d'environnement
TPU_NAME
. model_dir
- Répertoire dans lequel sont stockés les points de contrôle et les résumés lors de l'entraînement du modèle. Si ce dossier n'existe pas, le programme va le créer.
Lorsque vous utilisez Cloud TPU, le chemin
model_dir
doit être un chemin Cloud Storage (gs://...
). Vous pouvez réutiliser un dossier existant pour charger les données de point de contrôle actuelles et pour stocker des points de contrôle supplémentaires si les points de contrôle précédents ont été créés avec un Cloud TPU de la même taille et la même version de TensorFlow. mode
- Définissez ce paramètre sur
train
pour entraîner le modèle ou sureval
pour l'évaluer. params_override
- Chaîne JSON qui remplace les paramètres de script par défaut. Pour en savoir plus sur les paramètres de script, consultez
/usr/share/models/official/vision/detection/main.py
.
Une fois l'entraînement terminé, un message semblable au suivant s'affiche :
Train Step: 100/100 / loss = {'total_loss': 10.815635681152344, 'loss': 10.815635681152344, 'retinanet_cls_loss': 1.4915691614151, 'l2_regularization_loss': 4.483549118041992, 'retinanet_box_loss': 0.013074751943349838, 'shapemask_prior_loss': 0.17314358055591583, 'shapemask_coarse_mask_loss': 1.953366756439209, 'shapemask_fine_mask_loss': 2.216097831726074, 'model_loss': 6.332086086273193, 'learning_rate': 0.021359999} / training metric = {'total_loss': 10.815635681152344, 'loss': 10.815635681152344, 'retinanet_cls_loss': 1.4915691614151, 'l2_regularization_loss': 4.483549118041992, 'retinanet_box_loss': 0.013074751943349838, 'shapemask_prior_loss': 0.17314358055591583, 'shapemask_coarse_mask_loss': 1.953366756439209, 'shapemask_fine_mask_loss': 2.216097831726074, 'model_loss': 6.332086086273193, 'learning_rate': 0.021359999}
Exécutez le script pour évaluer le modèle ShapeMask. Cela prend environ dix minutes sur un TPU v3-8 :
(vm)$ python3 main.py \ --strategy_type=tpu \ --tpu=${TPU_NAME} \ --model_dir=${MODEL_DIR} \ --checkpoint_path=${MODEL_DIR} \ --mode=eval_once \ --model=shapemask \ --params_override="{eval: { val_json_file: ${VAL_JSON_FILE}, eval_file_pattern: ${EVAL_FILE_PATTERN}, eval_samples: 5000 }, shapemask_head: {use_category_for_mask: true, shape_prior_path: ${SHAPE_PRIOR_PATH}}, shapemask_parser: {output_size: [640, 640]}}"
Description des options de commande
strategy_type
- Pour entraîner le modèle Shapemask sur un TPU, vous devez définir
distribution_strategy
surtpu
. tpu
- Nom du Cloud TPU. Cette valeur est définie à l'aide de la variable d'environnement
TPU_NAME
. model_dir
- Répertoire dans lequel sont stockés les points de contrôle et les résumés lors de l'entraînement du modèle. Si ce dossier n'existe pas, le programme va le créer.
Lorsque vous utilisez Cloud TPU, le chemin
model_dir
doit être un chemin Cloud Storage (gs://...
). Vous pouvez réutiliser un dossier existant pour charger les données de point de contrôle actuelles et pour stocker des points de contrôle supplémentaires si les points de contrôle précédents ont été créés avec un Cloud TPU de la même taille et la même version de TensorFlow. mode
- Définissez ce paramètre sur
train
pour entraîner le modèle ou sureval
pour l'évaluer. params_override
- Chaîne JSON qui remplace les paramètres de script par défaut. Pour en savoir plus sur les paramètres de script, consultez
/usr/share/models/official/vision/detection/main.py
.
Une fois l'évaluation terminée, un message semblable au suivant s'affiche :
DONE (t=5.47s). Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.000 Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.000 Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.000 Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.000 Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.000 Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.000 Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.000 Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.000 Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.000 Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.000 Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.000 Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.000
Vous avez terminé l'entraînement et l'évaluation sur un seul appareil. Suivez la procédure ci-dessous pour supprimer les ressources TPU individuelles actuelles.
Déconnectez-vous de l'instance Compute Engine :
(vm)$ exit
Votre invite devrait maintenant être
username@projectname
, indiquant que vous êtes dans Cloud Shell.Supprimez la ressource TPU.
VM TPU
$ gcloud compute tpus tpu-vm delete shapemask-tutorial \ --zone=europe-west4-a
Description des options de commande
zone
- Zone dans laquelle se trouve votre Cloud TPU.
Nœud TPU
$ gcloud compute tpus execution-groups delete shapemask-tutorial \ --tpu-only \ --zone=europe-west4-a
Description des options de commande
tpu-only
- Ne supprime que le Cloud TPU. La VM reste disponible.
zone
- Zone contenant le TPU à supprimer.
À ce stade, vous pouvez terminer ce tutoriel et effectuer un nettoyage, ou continuer à explorer l'exécution du modèle sur des pods Cloud TPU.
Mettre à l'échelle votre modèle avec les pods Cloud TPU
Entraînement avec un pod TPU
Ouvrez une fenêtre Cloud Shell.
Créez une variable pour l'ID de votre projet.
export PROJECT_ID=project-id
Configurez l'outil de ligne de commande
gcloud
pour utiliser le projet dans lequel vous souhaitez créer Cloud TPU.gcloud config set project ${PROJECT_ID}
La première fois que vous exécutez cette commande dans une nouvelle VM Cloud Shell, une page
Authorize Cloud Shell
s'affiche. Cliquez surAuthorize
en bas de la page pour permettre àgcloud
d'effectuer des appels d'API GCP avec vos identifiants.Créez un compte de service pour le projet Cloud TPU.
Les comptes de service permettent au service Cloud TPU d'accéder à d'autres services Google Cloud Platform.
gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
La commande renvoie un compte de service Cloud TPU au format suivant :
service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
Créez un bucket Cloud Storage à l'aide de la commande suivante ou utilisez un bucket que vous avez créé précédemment pour votre projet.
gsutil mb -p ${PROJECT_ID} -c standard -l europe-west4 gs://bucket-name
Si vous avez déjà préparé l'ensemble de données COCO et l'avez déplacé vers votre bucket de stockage, vous pouvez le réutiliser pour l'entraînement sur pod. Si vous n'avez pas encore préparé l'ensemble de données COCO, préparez-le maintenant et revenez ici pour configurer l'entraînement sur pod.
Lancer un pod Cloud TPU
Ce tutoriel spécifie un pod v3-32. Pour connaître les autres options de pod, consultez la page Types de TPU disponibles.
VM TPU
$ gcloud compute tpus tpu-vm create shapemask-tutorial \ --zone=europe-west4-a \ --accelerator-type=v3-32 \ --version=tpu-vm-tf-2.7.0-pod
Nœud TPU
$ gcloud compute tpus execution-groups create \ --zone=europe-west4-a \ --name=shapemask-tutorial \ --accelerator-type=v3-32 \ --machine-type=n1-standard-8 \ --disk-size=300 \ --tf-version=2.10.0
Description des options de commande
zone
- Zone dans laquelle vous prévoyez de créer votre Cloud TPU.
name
- Nom du TPU. Si aucune valeur n'est spécifiée, votre nom d'utilisateur est utilisé par défaut.
accelerator-type
- Type du Cloud TPU à créer.
machine-type
- Type de machine de la VM Compute Engine à créer.
disk-size
- Taille du volume racine de votre VM Compute Engine (en Go).
tf-version
- La version de Tensorflow que
gcloud
installe sur la VM.
Si vous n'êtes pas automatiquement connecté à l'instance Compute Engine, connectez-vous en exécutant la commande
ssh
suivante. Lorsque vous êtes connecté à la VM, votre invite d'interface système passe deusername@vm-name
àusername@projectname
:VM TPU
gcloud compute tpus tpu-vm ssh shapemask-tutorial --zone=europe-west4-a
Nœud TPU
gcloud compute ssh shapemask-tutorial --zone=europe-west4-a
À mesure que vous appliquez ces instructions, exécutez chaque commande commençant par
(vm)$
dans la fenêtre de session de la VM.Installez la configuration requise pour TensorFlow.
VM TPU
(vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt
Nœud TPU
(vm)$ pip3 install -r /usr/share/models/official/requirements.txt
Le script d'entraînement nécessite un package supplémentaire. Installez-le maintenant :
VM TPU
(vm)$ pip3 install --user tensorflow-model-optimization>=0.1.3
Nœud TPU
(vm)$ pip3 install --user tensorflow-model-optimization>=0.1.3
Configurez les variables d'environnement suivantes en remplaçant bucket-name par le nom de votre bucket Cloud Storage :
(vm)$ export STORAGE_BUCKET=gs://bucket-name
L'application d'entraînement s'attend à ce que vos données d'entraînement soient accessibles dans Cloud Storage. Elle exploite également le bucket Cloud Storage pour stocker des points de contrôle lors de l'entraînement.
Mettez à jour les variables d'entraînement requises.
(vm)$ export MODEL_DIR=${STORAGE_BUCKET}/shapemask-pods (vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco (vm)$ export RESNET_CHECKPOINT=gs://cloud-tpu-checkpoints/retinanet/resnet50-checkpoint-2018-02-07 (vm)$ export TRAIN_FILE_PATTERN=${DATA_DIR}/train-* (vm)$ export EVAL_FILE_PATTERN=${DATA_DIR}/val-* (vm)$ export VAL_JSON_FILE=${DATA_DIR}/instances_val2017.json (vm)$ export SHAPE_PRIOR_PATH=gs://cloud-tpu-checkpoints/shapemask/kmeans_class_priors_91x20x32x32.npy
Définissez certaines variables d'environnement requises :
VM TPU
(vm)$ export PYTHONPATH="/usr/share/tpu/models:${PYTHONPATH}" (vm)$ export TPU_LOAD_LIBRARY=0
Nœud TPU
(vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/models"
Accédez au répertoire où le modèle est stocké :
VM TPU
(vm)$ cd /usr/share/tpu/models/official/vision/detection
Nœud TPU
(vm)$ cd /usr/share/models/official/vision/detection
Démarrez l'entraînement sur le pod.
L'exemple d'entraînement ci-dessous ne nécessite que 20 étapes et dure environ 10 minutes sur un nœud TPU v3-32. L'entraînement à la conversion nécessite environ 11 250 étapes et environ 2 heures sur un pod TPU v3-32.
(vm)$ python3 main.py \ --strategy_type=tpu \ --tpu=${TPU_NAME} \ --model_dir=${MODEL_DIR} \ --mode=train \ --model=shapemask \ --params_override="{train: { batch_size: 128, iterations_per_loop: 500, total_steps: 20, learning_rate: {'learning_rate_levels': [0.008, 0.0008], 'learning_rate_steps': [10000, 13000] }, checkpoint: { path: ${RESNET_CHECKPOINT}, prefix: resnet50/ }, train_file_pattern: ${TRAIN_FILE_PATTERN} }, eval: { val_json_file: ${VAL_JSON_FILE}, eval_file_pattern: ${EVAL_FILE_PATTERN}}, shapemask_head: {use_category_for_mask: true, shape_prior_path: ${SHAPE_PRIOR_PATH}} }"
Description des options de commande
strategy_type
- Pour entraîner le modèle Shapemask sur un TPU, vous devez définir
distribution_strategy
surtpu
. tpu
- Nom du Cloud TPU. Cette valeur est définie à l'aide de la variable d'environnement
TPU_NAME
. model_dir
- Répertoire dans lequel sont stockés les points de contrôle et les résumés lors de l'entraînement du modèle. Si ce dossier n'existe pas, le programme va le créer.
Lorsque vous utilisez Cloud TPU, le chemin
model_dir
doit être un chemin Cloud Storage (gs://...
). Vous pouvez réutiliser un dossier existant pour charger les données de point de contrôle actuelles et pour stocker des points de contrôle supplémentaires si les points de contrôle précédents ont été créés avec un Cloud TPU de la même taille et la même version de TensorFlow. mode
- Définissez ce paramètre sur
train
pour entraîner le modèle ou sureval
pour l'évaluer. params_override
- Chaîne JSON qui remplace les paramètres de script par défaut. Pour en savoir plus sur les paramètres de script, consultez
/usr/share/models/official/vision/detection/main.py
.
Effectuer un nettoyage
Pour éviter que les ressources utilisées lors de ce tutoriel soient facturées sur votre compte Google Cloud, supprimez le projet contenant les ressources, ou conservez le projet et supprimez les ressources individuelles.
Déconnectez-vous de l'instance Compute Engine, si vous ne l'avez pas déjà fait :
(vm)$ exit
Votre invite devrait maintenant être
username@projectname
, indiquant que vous êtes dans Cloud Shell.Supprimez vos ressources Cloud TPU et Compute Engine. La commande à utiliser pour supprimer vos ressources varie selon que vous utilisez des VM TPU ou des nœuds TPU. Pour en savoir plus, consultez la page Architecture du système.
VM TPU
$ gcloud compute tpus tpu-vm delete shapemask-tutorial \ --zone=europe-west4-a
Nœud TPU
$ gcloud compute tpus execution-groups delete shapemask-tutorial \ --zone=europe-west4-a
Vérifiez que les ressources ont été supprimées en exécutant la commande
gcloud compute tpus execution-groups list
. La suppression peut prendre plusieurs minutes. Le résultat de la commande suivante ne doit inclure aucune des ressources TPU créées dans ce tutoriel :$ gcloud compute tpus execution-groups list --zone=europe-west4-a
Exécutez
gsutil
comme indiqué, en remplaçant bucket-name par le nom du bucket Cloud Storage que vous avez créé pour ce tutoriel :$ gsutil rm -r gs://bucket-name
Étape suivante
Entraînez le modèle à l'aide d'autres tailles d'images
Vous pouvez essayer d'utiliser un réseau de neurones plus étendu (par exemple, ResNet-101 au lieu de ResNet-50). Une image d'entrée plus grande et un réseau de neurones plus puissant permettent d'obtenir un modèle plus précis, mais plus lent.
Utilisez une base différente
Vous pouvez pré-entraîner un modèle ResNet à l'aide de votre propre ensemble de données et l'utiliser comme base pour votre modèle ShapeMask. Vous pouvez également exploiter un autre réseau de neurones que ResNet, ce qui requiert quelques étapes de configuration supplémentaires. Enfin, si vous souhaitez mettre en œuvre vos propres modèles de détection d'objets, ce réseau peut constituer une bonne base pour vos tests.