Convertir un ensemble de données de classification d'images à utiliser avec Cloud TPU

Ce tutoriel explique comment utiliser le script d'exemple de convertisseur de données de classification d'images pour convertir un ensemble de données de classification d'images brutes au format TFRecord utilisé pour l'entraînement des modèles Cloud TPU.

Les fichiers TFRecord rendent la lecture de fichiers volumineux depuis Cloud Storage plus efficace que la lecture de chaque image en tant que fichier individuel. Vous pouvez utiliser des fichiers TFRecord partout où vous utilisez un pipeline tf.data.Dataset.

Pour en savoir plus sur l'utilisation de TFRecord, consultez les documents TensorFlow suivants :

Si vous utilisez le framework PyTorch ou JAX, mais pas Cloud Storage pour le stockage de votre ensemble de données, vous n'obtiendrez peut-être pas le même avantage des TFRecords.

Vue d'ensemble des conversions

Le dossier de classification d'images au sein du dépôt du convertisseur des données sur GitHub contient le script converter, image_classification_data.py, ainsi qu'un exemple de mise en œuvre, simple_example.py, que vous pouvez copier et modifiez pour effectuer votre propre conversion de données.

L'exemple de conversion de données de classification d'images définit deux classes, ImageClassificationConfig et ImageClassificationBuilder. Ces classes sont définies dans tpu/tools/data_converter/image_classification_data.py.

ImageClassificationConfig est une classe de base abstraite. Vous sous-classez ImageClassificationConfig pour définir la configuration nécessaire pour instancier un ImageClassificationBuilder.

ImageClassificationBuilder est un compilateur d'ensembles de données TensorFlow pour les ensembles de données de classification d'images. Il s'agit d'une sous-classe de tdfs.core.GeneratorBasedBuilder. Il extrait des exemples de données de votre ensemble de données et les convertit en fichiers TFRecord. Les fichiers TFRecord sont écrits dans un chemin spécifié par le paramètre data_dir vers la méthode __init__ de ImageClassificationBuilder.

Dans simple_example.py, SimpleDatasetConfig sous-classe ImageClassificationConfig tout en mettant en œuvre des propriétés pour définir les modes compatibles, le nombre de classes d'images et un générateur d'exemples dont le rôle est de fournir un dictionnaire contenant des données d'images et une classe d'images pour chaque exemple de l'ensemble de données.

La fonction main() crée un ensemble de données composé de données d'image générées de manière aléatoire et instancie un objet SimpleDatasetConfig spécifiant le nombre de classes et le chemin d'accès à l'ensemble de données sur le disque. main() instancie ensuite un objet ImageClassificationBuilder en transmettant l'instance SimpleDatasetConfig. Enfin, main() appelle download_and_prepare(). Lorsque cette méthode est appelée, l'instance ImageClassificationBuilder utilise l'exemple de générateur de données mis en œuvre par SimpleDatasetConfig pour charger chaque exemple et les enregistre dans une série de fichiers TFRecord.

Pour une explication plus détaillée, consultez la Notebook Classification Converter

Modifier l'exemple de conversion de données pour charger votre ensemble de données

Pour convertir votre ensemble de données au format TFRecord, sous-classez la classe ImageClassificationConfig en définissant les propriétés suivantes :

  • num_labels: renvoie le nombre de classes d'image
  • supported_modes: renvoie la liste des modes compatibles avec votre ensemble de données (par exemple: test, entraînement et validation)
  • text_label_map: renvoie un dictionnaire qui modélise le mappage entre un étiquette de classe de texte et étiquette de classe d'entier (SimpleDatasetConfig n'utilise pas cette propriété, car elle ne nécessite pas de mappage)
  • download_path : chemin d'accès à partir duquel télécharger votre ensemble de données (SimpleDatasetConfig n'utilise pas cette propriété, example_generator charge les données du disque)

Mettez en œuvre la fonction de générateur example_generator. Cette méthode doit générer un dictionnaire contenant les données d'image et le nom de classe de chaque exemple. ImageClassificationBuilder utilise la fonction example_generator() pour récupérer chaque exemple et les écrire sur le disque au format TFRecord.

Exécuter l'exemple de conversion des données

  1. Créez un bucket Cloud Storage à l'aide de la commande suivante :

    gcloud storage buckets create gs://bucket-name --project=${PROJECT_ID} --location=us-central2
  2. Lancez un Cloud TPU à l'aide de la commande gcloud.

    $ gcloud compute tpus tpu-vm create tpu-name \
        --zone=us-central2-b \
        --accelerator-type=v4-8 \
        --version=tpu-vm-tf-2.17.0-pjrt

    Description des options de commande

    zone
    Zone dans laquelle vous prévoyez de créer votre Cloud TPU.
    accelerator-type
    Le type d'accélérateur spécifie la version et la taille de la ressource Cloud TPU que vous souhaitez créer. Pour en savoir plus sur les types d'accélérateurs compatibles avec chaque version de TPU, consultez Versions de TPU.
    version
    Version logicielle de Cloud TPU.
  3. Connectez-vous au TPU à l'aide de SSH:

    $ gcloud compute tpus tpu-vm ssh tpu-name --zone=us-central2-b

    Lorsque vous vous connectez au TPU, l'invite de shell passe de De username@projectname à username@vm-name.

  4. Installez les packages requis.

    (vm)$ pip3 install opencv-python-headless pillow
  5. Créez les variables d'environnement suivantes utilisées par le script.

    (vm)$ export STORAGE_BUCKET=gs://bucket-name
    (vm)$ export CONVERTED_DIR=$HOME/tfrecords
    (vm)$ export GENERATED_DATA=$HOME/data
    (vm)$ export GCS_CONVERTED=$STORAGE_BUCKET/data_converter/image_classification/tfrecords
    (vm)$ export GCS_RAW=$STORAGE_BUCKET/image_classification/raw
    (vm)$ export PYTHONPATH="$PYTHONPATH:/usr/share/tpu/models"
  6. Accédez au répertoire data_converter.

    (vm)$ cd /usr/share/tpu/tools/data_converter

Exécuter le convertisseur de données sur un ensemble de données fictif

Le script simple_example.py se trouve dans le dossier image_classification de l'exemple de convertisseur de données. L'exécution du script avec les paramètres suivants génère un ensemble d'images fictives et les convertit en enregistrements TFRecord.

(vm)$ python3 image_classification/simple_example.py \
  --num_classes=1000 \
  --data_path=$GENERATED_DATA \
  --generate=True \
  --num_examples_per_class_low=10 \
  --num_examples_per_class_high=11 \
  --save_dir=$CONVERTED_DIR

Exécuter le convertisseur de données sur l'un de nos ensembles de données bruts

  1. Créez une variable d'environnement pour l'emplacement des données brutes.

    (vm)$ export GCS_RAW=gs://cloud-tpu-test-datasets/data_converter/raw_image_classification
  2. Exécutez le script simple_example.py.

    (vm)$ python3 image_classification/simple_example.py \
    --num_classes=1000 \
    --data_path=$GCS_RAW \
    --generate=False \
    --save_dir=$CONVERTED_DIR

Le script simple_example.py utilise les paramètres suivants :

  • num_classes fait référence au nombre de classes de l'ensemble de données. Nous utilisons ici 1 000 pour correspondre au format ImageNet.
  • generate détermine si les données brutes doivent être générées ou non.
  • data_path fait référence au chemin où les données sont générées si generate=True, ou au chemin où les données brutes sont stockées si generate=False.
  • num_examples_per_class_low et num_examples_per_class_high déterminent le nombre d'exemples par classe à générer. Le script génère un nombre aléatoire d'exemples dans cette plage.
  • save_dir correspond à l'emplacement où les fichiers TFRecord sont enregistrés. Pour entraîner un modèle sur Cloud TPU, les données doivent être stockées sur Cloud Storage. Il peut s'agir d'un stockage sur Cloud Storage ou sur la VM.

Renommer et déplacer les enregistrements TFRecord dans Cloud Storage

L'exemple suivant utilise les données converties avec le modèle ResNet.

  1. Renommez les enregistrements TFRecord avec le même format que les enregistrements TFRecord ImageNet :

    (vm)$ cd $CONVERTED_DIR/image_classification_builder/Simple/0.1.0/
    (vm)$ sudo apt install rename 
    (vm)$ rename -v 's/image_classification_builder-(\w+)\.tfrecord/$1/g' *
  2. Copiez les enregistrements TFRecord dans Cloud Storage :

    (vm)$ gcloud storage cp train* $GCS_CONVERTED
    (vm)$ gcloud storage cp validation* $GCS_CONVERTED

Effectuer un nettoyage

  1. Déconnectez-vous du Cloud TPU, si ce n'est pas déjà fait. ce qui suit:

    (vm)$ exit

    Votre invite devrait maintenant être user@projectname, indiquant que vous êtes dans Cloud Shell.

  2. Dans Cloud Shell, exécutez gcloud pour supprimer la ressource de VM.

    $ gcloud compute tpus tpu-vm delete tpu-name \
      --zone=us-central2-b
  3. Vérifiez que la VM a été supprimée en exécutant gcloud compute tpus tpu-vm list. La suppression peut prendre plusieurs minutes. Une réponse de ce type indique vos instances ont bien été supprimées.

    $ gcloud compute tpus tpu-vm list --zone=us-central2-b
    Listed 0 items.
    
  4. Exécutez la gcloud CLI comme indiqué, en remplaçant bucket-name par nom du bucket Cloud Storage que vous avez créé pour ce tutoriel:

    $ gcloud storage rm gs://bucket-name --recursive