ImageNet-Dataset herunterladen, vorverarbeiten und hochladen
In diesem Dokument wird beschrieben, wie Sie das ImageNet-Dataset herunterladen, vorverarbeiten und hochladen, um es mit der Cloud TPU-VM-Architektur zu verwenden.
ImageNet ist eine Bilddatenbank. Die Bilder in der Datenbank sind hierarchisch angeordnet, wobei jeder Knoten der Hierarchie durch Hunderte und Tausende von Bildern dargestellt wird.Aufgrund der Größe der ImageNet-Datenbank kann das Trainieren eines Modells einige Zeit in Anspruch nehmen. Alternativ können Sie auch eine Demoversion des Datasets verwenden, die als fake_imagenet bezeichnet wird. Mit dieser Demoversion können Sie das Modell testen und gleichzeitig den Speicher- und Zeitaufwand reduzieren, der mit der Verwendung der gesamten ImageNet-Datenbank verbunden ist.
Das gesamte ImageNet-Dataset vorverarbeiten
Das ImageNet-Dataset besteht aus drei Teilen: Trainingsdaten, Validierungsdaten und Bildlabels.
Die Trainingsdaten enthalten 1.000 Kategorien und 1,2 Millionen Bilder, wird heruntergeladen. Die Validierungs- und Testdaten sind nicht in den ImageNet-Trainingsdaten enthalten (Duplikate wurden entfernt).
Die Validierungs- und Testdaten bestehen aus 150.000 Fotos, die über Flickr und andere Suchmaschinen zusammengestellt und manuell mit Labels zum Vorhandensein oder Fehlen von 1.000 Objektkategorien versehen wurden. Die 1.000 Objektkategorien sowohl interne Knoten als auch Blattknoten von ImageNet enthalten, sich aber nicht mit sich gegenseitig helfen. Eine zufällige Teilmenge von 50.000 Bildern mit Labels wurde zusammen mit einer Liste der 1.000 Kategorien als Validierungsdaten veröffentlicht. Die verbleibenden Bilder werden zur Bewertung verwendet und wurden ohne Labels veröffentlicht.
Schritte zur Vorverarbeitung des vollständigen ImageNet-Datasets
Das vollständige ImageNet-Dataset wird in fünf Schritten zur Verwendung durch ein Modell für maschinelles Lernen vorbereitet:
- Prüfen Sie, ob am Ziel für den Download ausreichend Speicherplatz vorhanden ist.
- Richten Sie die Zielverzeichnisse ein.
- Melden Sie sich auf der ImageNet-Website an und fordern Sie die Downloadberechtigung an.
Laden Sie das Dataset auf ein lokales Laufwerk oder eine VM-Instanz herunter.
Speicherplatzbedarf prüfen
Unabhängig davon, ob Sie das Dataset auf Ihren lokalen Computer oder in eine VM-Instanz herunterladen, etwa 300 GB freien Speicherplatz im Downloadziel.
Die standardmäßige Laufwerkszuweisung für eine TPU-VM beträgt 100 GB. Da für den Download auf Ihre TPU-VM 300 GB erforderlich sind, müssen Sie einen nichtflüchtigen Speicher mit 200 GB zusätzlichem Speicherplatz hinzufügen, um den Download abzuschließen. Auf einer TPU-VM können Sie
mit dem Befehl df -ha
Ihren verfügbaren Speicherplatz ermitteln.
Achten Sie beim Hinzufügen eines nichtflüchtigen Speichers auf Folgendes:
- Setzen Sie die Option Beim Löschen der Instanz auf Laufwerk löschen, um sicherzustellen, dass das Laufwerk wenn Sie die VM löschen.
- Notieren Sie sich den Pfad zu Ihrem neuen Laufwerk. Beispiel:
/mnt/disks/mnt-dir
.
Zielverzeichnisse einrichten
Richten Sie auf Ihrem lokalen Computer oder Ihrer VM-Instanz die Verzeichnisstruktur zum Speichern ein. die heruntergeladenen Daten.
Erstellen Sie in Ihrem Basisverzeichnis auf einem Verzeichnis, z. B.
imagenet
, Ihr Downloadziel (lokale Maschine oder TPU-VM)mkdir imagenet
Erstellen Sie unter diesem Verzeichnis zwei Unterverzeichnisse:
train
undvalidation
.mkdir imagenet/train mkdir imagenet/validation
Exportieren Sie das Verzeichnis
imagenet
alsIMAGENET_HOME
.export IMAGENET_HOME=~/imagenet
Registrieren und Berechtigung zum Herunterladen des Datasets anfordern
Registrieren Sie sich auf der Imagenet-Website. Download nicht möglich so lange, bis ImageNet Ihre Registrierung bestätigt und Ihnen eine Bestätigungs-E-Mail. Wenn Sie die Bestätigungs-E-Mail nicht innerhalb Tage, wenden Sie sich an den ImageNet-Support, um zu erfahren, Registrierung wurde nicht bestätigt. Sobald deine Registrierung bestätigt wurde, das Dataset herunterladen kann. Die Cloud TPU-Tutorials, die das ImageNet-Dataset verwenden, verwenden die Bilder aus der ImageNet Large Scale Visual Recognition Challenge 2012 (ILSVRC2012).
ImageNet-Dataset herunterladen
Wechseln Sie von der LSRVC 2012-Download-Website zum Abschnitt „Images“ auf der Seite und klicken Sie mit der rechten Maustaste auf „Trainingsbilder (Aufgabe 1 und 2)“. Die URL zum Herunterladen des größten Teils des Trainings-Datasets. Speichern Sie die URL.
Klicken Sie mit der rechten Maustaste auf „Trainingsbilder (Aufgabe 3)“, um die URL für den zweiten Trainingssatz abzurufen. Speichern Sie die URL.
Klicken Sie mit der rechten Maustaste auf „Validierungsbilder (alle Aufgaben)“. um die URL für die Validierungs-Dataset. Speichern Sie die URL.
Wenn Sie die ImageNet-Dateien auf Ihren lokalen Computer herunterladen, müssen Sie die Verzeichnisse auf Ihrem lokalen Computer in das entsprechende
$IMAGENET_HOME
-Verzeichnis auf Ihrer VM-Instanz kopieren. ImageNet-Dataset vom lokalen Host kopieren zu Ihrer VM-Instanz dauert etwa 13 Stunden.Bevor Sie das ImageNet-Dataset auf Ihre TPU-VM kopieren, müssen Sie den Namen Ihrer TPU-VM-Instanz ermitteln. Stellen Sie dazu über SSH eine Verbindung zu Ihrer TPU-VM her. Der Name der VM-Instanz wird in der Eingabeaufforderung nach dem Symbol
@
angezeigt.Kopieren Sie mit dem folgenden Befehl die Dateien unter ~/imagenet auf Ihrer lokalen Maschine auf Ihrer VM auf
$IMAGENET_HOME
.gcloud compute scp --recurse $IMAGENET_HOME username@vm-instance-name:~/imagenet
Laden Sie unter
$IMAGENET_HOME
die Dateien „Trainingsbilder (Aufgabe 1 und 2)“ über die gespeicherte URL herunter.Die Datei "Training images (Task 1 & 2)" ist der große Trainingsdatensatz. Die Größe beträgt 138 GB. Wenn Sie den Download auf Ihre TPU-VM über Cloud Shell durchführen, dauert der Download ungefähr 40 Stunden. Wenn die Cloud Shell die Verbindung zur VM verliert, können Sie dem Befehl
nohup
voranstellen oder screen verwenden.cd $IMAGENET_HOME \ nohup wget https://image-net.org/data/ILSVRC/2012/ILSVRC2012_img_train.tar
Ersetzen Sie die URL durch die URL, die Sie zuvor unter "Trainingsbilder (Aufgabe 1 und 2)" angezeigt, da sich die URL möglicherweise geändert hat.
Extrahieren Sie mit dem folgenden Befehl die einzelnen Trainingsverzeichnisse in das Verzeichnis
$IMAGENET_HOME/train
. Die Extraktion dauert zwischen 1 und 3 Stunden.tar xf $IMAGENET_HOME/ILSVRC2012_img_train.tar -C $IMAGENET_HOME/train
Extrahieren Sie die TAR-Dateien für das Training im
$IMAGENET_HOME/train
, wie im folgenden Skript gezeigt:cd `$IMAGENET_HOME/train` for f in *.tar; do d=`basename $f .tar` mkdir $d tar xf $f -C $d done
Löschen Sie die TAR-Dateien nach dem Extrahieren, um Speicherplatz freizugeben.
Laden Sie unter
$IMAGENET_HOME
die Dateien „Trainingsbilder (Aufgabe 3)“ über die gespeicherte URL herunter.Die Seite „Trainingsbilder (Aufgabe 3)“ Die Datei ist 728 MB groß und dauert nur wenige Minuten. heruntergeladen werden, sodass Sie keine Vorkehrungen treffen müssen, Cloud Shell-Verbindung.
wget https://image-net.org/data/ILSVRC/2012/ILSVRC2012_img_train_t3.tar
Ersetzen Sie die URL durch die URL, die Sie zuvor für „Trainingsbilder (Aufgabe 3)“ gespeichert haben, da sich die URL möglicherweise geändert hat.
Extrahieren Sie die einzelnen Trainingsverzeichnisse in den
$IMAGENET_HOME/train
mit dem folgenden Befehl.tar xf $IMAGENET_HOME/ILSVRC2012_img_train_t3.tar -C $IMAGENET_HOME/train
Extrahieren Sie die einzelnen TAR-Trainingsdateien, die sich im Verzeichnis
$IMAGENET_HOME/train
befinden, wie im folgenden Script gezeigt:cd `$IMAGENET_HOME/train` for f in *.tar; do d=`basename $f .tar` mkdir $d tar xf $f -C $d done
Löschen Sie die TAR-Dateien nach dem Extrahieren, um Speicherplatz freizugeben.
Laden Sie unter
$IMAGENET_HOME
die Dateien „Validierungsbilder (alle Aufgaben)“ über die gespeicherte URL herunter.Beim Herunterladen der Datei „Validation images (all tasks)“ wird die Cloud Shell-Verbindung möglicherweise getrennt. Sie können
nohup
oder Filtern, um zu verhindern, Verbindung zu Cloud Shell unterbrochen wird.wget https://image-net.org/data/ILSVRC/2012/ILSVRC2012_img_val.tar
Ersetzen Sie die URL durch die URL, die Sie zuvor unter „Validierungsbilder“ gespeichert haben (alle Aufgaben)" angezeigt, da sich die URL möglicherweise geändert hat.
Dieser Download dauert etwa 30 Minuten.
Extrahieren Sie die einzelnen Validierungsdateien mit dem folgenden Befehl in das Verzeichnis
$IMAGENET_HOME/validation
.tar xf $IMAGENET_HOME/ILSVRC2012_img_val.tar -C $IMAGENET_HOME/validation
Wenn Sie die Validierungsdateien auf Ihren lokalen Computer heruntergeladen haben, müssen Sie das Verzeichnis
$IMAGENET_HOME/validation
auf Ihrem lokalen Computer in das Verzeichnis$IMAGENET_HOME/validation
Ihrer VM-Instanz kopieren. Der Kopiervorgang dauert etwa 30 Minuten.Laden Sie die Labeldatei herunter.
wget -O $IMAGENET_HOME/synset_labels.txt \ https://raw.githubusercontent.com/tensorflow/models/master/research/slim/datasets/imagenet_2012_validation_synset_labels.txt
Wenn Sie die Labeldatei auf Ihren lokalen Computer heruntergeladen haben, müssen Sie sie in das Verzeichnis
$IMAGENET_HOME
auf Ihrem lokalen Computer in$IMAGENET_HOME
kopieren, das sich auf Ihrer VM-Instanz befindet. Dieser Kopiervorgang dauert einige Sekunden.Die Namen der Trainingsunterverzeichnisse (z. B. n03062245) sind WordNet-IDs (wnid). Die ImageNet API zeigt die Zuordnung von WordNet-IDs zu den zugehörigen Validierungslabels in der Datei
synset_labels.txt
. Ein Synset ist in diesem Kontext ein Gruppe von Bildern.
ImageNet-Dataset verarbeiten und optional in Cloud Storage hochladen
Laden Sie aus GitHub das Skript
imagenet_to_gcs.py
herunter:wget https://raw.githubusercontent.com/tensorflow/tpu/master/tools/datasets/imagenet_to_gcs.py
Wenn Sie das Dataset in Cloud Storage hochladen, geben Sie den Standort des Storage-Buckets an, in den das ImageNet-Dataset hochgeladen werden soll:
export STORAGE_BUCKET=gs://bucket-name
Wenn Sie das Dataset auf Ihren lokalen Computer oder Ihre lokale VM hochladen, geben Sie ein Datenverzeichnis zum Speichern des Datasets an:
(vm)$ export DATA_DIR=$IMAGENET_HOME/dataset-directory
Installieren Sie die folgenden Bibliotheken auf Ihrem Computer oder in einer virtuellen Umgebung:
pip3 install google-cloud-storage pip3 install tensorflow
Führen Sie das Skript aus, um das unformatierte Dataset als TFRecords vorzuverarbeiten, und verwenden Sie den folgenden Befehl, um es in Cloud Storage hochzuladen:
python3 imagenet_to_gcs.py \ --project=$PROJECT \ --gcs_output_path=$STORAGE_BUCKET \ --raw_data_dir=$IMAGENET_HOME \ --local_scratch_dir=$IMAGENET_HOME/tf_records
Das Skript generiert eine Reihe von Verzeichnissen (sowohl für das Training als auch für die Validierung) im folgenden Format:
${DATA_DIR}/train-00000-of-01024
${DATA_DIR}/train-00001-of-01024
...
${DATA_DIR}/train-01023-of-01024
und
${DATA_DIR}/validation-00000-of-00128
${DATA_DIR}/validation-00001-of-00128
...
${DATA_DIR}/validation-00127-of-00128
Nachdem die Daten in Ihren Cloud-Bucket hochgeladen wurden, führen Sie Ihr Modell aus und legen Sie --data_dir=${DATA_DIR}
fest.