Überblick
In dieser Anleitung wird erläutert, wie Sie das Mask RCNN-Modell mit Cloud TPU mit dem COCO-Dataset ausführen.
Mask RCNN ist ein neuronales Deep-Learning-Netzwerk, das für die Objekterkennung und Bildsegmentierung entwickelt wurde, eine der komplexeren Herausforderungen beim maschinellen Sehen.
Das Mask RCNN-Modell generiert Begrenzungsrahmen und Segmentierungsmasken für jede Instanz eines Objekts im Bild. Das Modell beruht auf dem Feature Pyramid Network (FPN) und einem ResNet50-Backbone.
In dieser Anleitung wird das Modell mit Tensorflow Keras APIs
trainiert. Die Keras API ist eine übergeordnete TensorFlow API und kann zum Erstellen und Ausführen eines Modells für maschinelles Lernen auf Cloud TPU verwendet werden. Die API vereinfacht den Modellentwicklungsprozess. Sie blendet die meisten Implementierungen auf untergeordneter Ebene aus, wodurch leichter zwischen der TPU und anderen Plattformen wie GPUs oder CPUs gewechselt werden kann.
Bei der folgenden Anleitung wird davon ausgegangen, dass Sie bereits mit dem Trainieren eines Modells in Cloud TPU vertraut sind. Wenn Sie Cloud TPU noch nicht kennen, finden Sie in der Kurzanleitung eine grundlegende Einführung.
Lernziele
- COCO-Dataset vorbereiten
- Cloud Storage-Bucket zum Speichern der Dataset- und Modellausgabe erstellen
- TPU-Ressourcen für Training und Evaluierung einrichten
- Training und Bewertung auf einer einzelnen Cloud TPU oder einem Cloud TPU Pod ausführen
Kosten
In diesem Dokument verwenden Sie die folgenden kostenpflichtigen Komponenten von Google Cloud:
- Compute Engine
- Cloud TPU
- Cloud Storage
Mit dem Preisrechner können Sie eine Kostenschätzung für Ihre voraussichtliche Nutzung vornehmen.
Hinweise
Bevor Sie mit dieser Anleitung beginnen, prüfen Sie, ob Ihr Google Cloud-Projekt ordnungsgemäß eingerichtet ist.
- Melden Sie sich bei Ihrem Google Cloud-Konto an. Wenn Sie mit Google Cloud noch nicht vertraut sind, erstellen Sie ein Konto, um die Leistungsfähigkeit unserer Produkte in der Praxis sehen und bewerten zu können. Neukunden erhalten außerdem ein Guthaben von 300 $, um Arbeitslasten auszuführen, zu testen und bereitzustellen.
-
Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
-
Wählen Sie in der Google Cloud Console auf der Seite der Projektauswahl ein Google Cloud-Projekt aus oder erstellen Sie eines.
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
In dieser Anleitung werden kostenpflichtige Komponenten der Google Cloud verwendet. Rufen Sie die Seite mit den Cloud TPU-Preisen auf, um Ihre Kosten abzuschätzen. Denken Sie daran, nicht mehr benötigte Ressourcen zu bereinigen, um unnötige Kosten zu vermeiden.
COCO-Dataset vorbereiten
In dieser Anleitung wird das COCO-Dataset verwendet. Das Dataset muss im TFRecord-Format in einem Cloud Storage-Bucket vorliegen, der für das Training verwendet werden soll.
Wenn Sie das COCO-Dataset bereits in einem Cloud Storage-Bucket vorbereitet haben, der sich im Zone befindet, die Sie für das Modell trainieren verwenden werden, können Sie direkt zu Training mit einem einzelnen Gerät wechseln. Führen Sie andernfalls folgende Schritte aus, um das Dataset vorzubereiten.
Öffnen Sie ein Cloud Shell-Fenster.
Konfigurieren Sie
gcloud
in Cloud Shell durch Ihre Projekt-ID.export PROJECT_ID=project-id gcloud config set project ${PROJECT_ID}
Erstellen Sie in Ihrer Cloud Shell mit folgendem Befehl einen Cloud Storage-Bucket:
gsutil mb -p ${PROJECT_ID} -c standard -l europe-west4 gs://bucket-name
Starten Sie eine Compute Engine-VM-Instanz.
Diese VM-Instanz wird ausschließlich zum Herunterladen und Vorverarbeiten des COCO-Datasets verwendet. Geben Sie in instance-name einen Namen Ihrer Wahl ein.
$ gcloud compute tpus execution-groups create \ --vm-only \ --name=instance-name \ --zone=europe-west4-a \ --disk-size=300 \ --machine-type=n1-standard-16 \ --tf-version=2.12.0
Beschreibung der Befehls-Flags
vm-only
- Erstellen Sie nur eine VM. Standardmäßig werden mit dem Befehl
gcloud compute tpus execution-groups
eine VM und eine Cloud TPU erstellt. name
- Der Name der zu erstellenden Cloud TPU.
zone
- Die Zone, in der Sie Ihre Cloud TPU erstellen möchten.
disk-size
- Die Größe der Festplatte in GB der mit dem Befehl
gcloud compute tpus execution-groups
erstellten VM. machine-type
- Der Maschinentyp der zu erstellenden Compute Engine-VM.
tf-version
- Die Tensorflow-Version
gcloud compute tpus execution-groups
wird auf der VM installiert.
Wenn Sie nicht automatisch bei der Compute Engine-Instanz angemeldet werden, melden Sie sich mit dem folgenden
ssh
-Befehl an. Wenn Sie bei der VM angemeldet sind, ändert sich die Shell-Eingabeaufforderung vonusername@projectname
inusername@vm-name
:$ gcloud compute ssh instance-name --zone=europe-west4-a
Richten Sie zwei Variablen ein, eine für den zuvor erstellten Storage-Bucket und eine für das Verzeichnis, das die Trainingsdaten (DATA_DIR) im Storage-Bucket enthält.
(vm)$ export STORAGE_BUCKET=gs://bucket-name
(vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco
Installieren Sie die Pakete, die für die Vorverarbeitung der Daten erforderlich sind.
(vm)$ sudo apt-get install -y python3-tk && \ pip3 install --user Cython matplotlib opencv-python-headless pyyaml Pillow && \ pip3 install --user "git+https://github.com/cocodataset/cocoapi#egg=pycocotools&subdirectory=PythonAPI"
Führen Sie das Skript
download_and_preprocess_coco.sh
aus, um das COCO-Dataset in einen Satz von TFRecords (*.tfrecord
) zu konvertieren, der von der Trainingsanwendung erwartet wird.(vm)$ git clone https://github.com/tensorflow/tpu.git (vm)$ sudo bash tpu/tools/datasets/download_and_preprocess_coco.sh ./data/dir/coco
Dadurch werden die erforderlichen Bibliotheken installiert und das Skript für die Vorverarbeitung ausgeführt. Dann werden verschiedene
*.tfrecord
-Dateien in Ihr lokales Datenverzeichnis ausgegeben. Der COCO-Download und das Ausführen des Konvertierungsskripts dauern ungefähr eine Stunde.Daten in den Cloud Storage-Bucket kopieren
Nachdem Sie die Daten in TFRecords konvertiert haben, kopieren Sie sie mit dem Befehl
gsutil
aus dem lokalen Speicher in den Cloud Storage-Bucket. Die Annotationsdateien müssen ebenfalls kopiert werden. Diese Dateien helfen dabei, die Leistung des Modells zu validieren.(vm)$ gsutil -m cp ./data/dir/coco/*.tfrecord ${DATA_DIR} (vm)$ gsutil cp ./data/dir/coco/raw-data/annotations/*.json ${DATA_DIR}
Bereinigen Sie die VM-Ressourcen.
Nachdem das COCO-Dataset in TFRecords konvertiert und in DATA_DIR in Ihrem Cloud Storage-Bucket kopiert wurde, können Sie die Compute Engine-Instanz löschen.
Trennen Sie die Verbindung zur Compute Engine-Instanz:
(vm)$ exit
Die Eingabeaufforderung sollte nun
username@projectname
lauten und angeben, dass Sie sich in Cloud Shell befinden.Löschen Sie die Compute Engine-Instanz.
$ gcloud compute instances delete instance-name --zone=europe-west4-a
Cloud TPU-Training mit Einzelgerät
Öffnen Sie ein Cloud Shell-Fenster.
Erstellen Sie eine Umgebungsvariable für die Projekt-ID.
export PROJECT_ID=project-id
Konfigurieren Sie die Google Cloud CLI so, dass das Projekt verwendet wird, in dem Sie die Cloud TPU erstellen möchten.
gcloud config set project ${PROJECT_ID}
Wenn Sie diesen Befehl zum ersten Mal in einer neuen Cloud Shell-VM ausführen, wird die Seite
Authorize Cloud Shell
angezeigt. Klicken Sie unten auf der Seite aufAuthorize
, umgcloud
zu erlauben, Google Cloud API-Aufrufe mit Ihren Anmeldedaten auszuführen.Erstellen Sie ein Dienstkonto für das Cloud TPU-Projekt.
gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
Der Befehl gibt ein Cloud TPU-Dienstkonto im folgenden Format zurück:
service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
Exportieren Sie TPU-Einrichtungsvariablen.
Exportieren Sie Ihre Projekt-ID, den Namen, den Sie für Ihre TPU-Ressourcen verwenden möchten, sowie die Zone, in der Sie das Modell trainieren und alle trainingsbezogenen Daten speichern.
$ export TPU_NAME=mask-rcnn-tutorial $ export ZONE=europe-west4-a
Starten Sie mit dem Befehl
gcloud
eine Compute Engine-VM und eine Cloud TPU. Der verwendete Befehl hängt davon ab, ob Sie TPU-VMs oder TPU-Knoten verwenden. Weitere Informationen zu beiden VM-Architekturen finden Sie unter Systemarchitektur.TPU-VM
$ gcloud compute tpus tpu-vm create mask-rcnn-tutorial \ --zone=europe-west4-a \ --accelerator-type=v3-8 \ --version=tpu-vm-tf-2.13.0
TPU-Knoten
$ gcloud compute tpus execution-groups create \ --zone=europe-west4-a \ --name=mask-rcnn-tutorial \ --accelerator-type=v3-8 \ --machine-type=n1-standard-8 \ --disk-size=300 \ --tf-version=2.12.0
Beschreibung der Befehls-Flags
zone
- Die Zone, in der Sie Ihre Cloud TPU erstellen möchten.
name
- Der TPU-Name. Ist standardmäßig Ihr Nutzername, wenn nichts anderes angegeben ist.
accelerator-type
- Der Typ der zu erstellenden Cloud TPU.
machine-type
- Der Maschinentyp der zu erstellenden Compute Engine-VM.
disk-size
- Die Größe des Stamm-Volumes Ihrer Compute Engine-VM (in GB).
tf-version
- Die Tensorflow-Version
gcloud
wird auf der VM installiert.
Weitere Informationen zum Befehl
gcloud
finden Sie in der gcloud-Referenz.Wenn Sie nicht automatisch bei der Compute Engine-Instanz angemeldet werden, melden Sie sich mit dem folgenden
ssh
-Befehl an. Wenn Sie bei der VM angemeldet sind, ändert sich die Shell-Eingabeaufforderung vonusername@projectname
inusername@vm-name
:TPU-VM
gcloud compute tpus tpu-vm ssh mask-rcnn-tutorial --zone=europe-west4-a
TPU-Knoten
gcloud compute tpus execution-groups ssh mask-rcnn-tutorial --zone=europe-west4-a
Installieren Sie TensorFlow-Anforderungen.
Der verwendete Befehl hängt davon ab, ob Sie TPU-VMs oder TPU-Knoten verwenden.
TPU-VM
(vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt
TPU-Knoten
(vm)$ pip3 install --user -r /usr/share/models/official/requirements.txt
Legen Sie die Cloud TPU-Namensvariable fest.
TPU-VM
(vm)$ export TPU_NAME=local
TPU-Knoten
(vm)$ export TPU_NAME=mask-rcnn-tutorial
Richten Sie die folgenden Umgebungsvariablen ein und ersetzen Sie bucket-name durch den Namen des Cloud Storage-Buckets, in dem das COCO-Dataset gespeichert ist:
(vm)$ export STORAGE_BUCKET=gs://bucket-name
Fügen Sie Umgebungsvariablen für die Daten- und Modellverzeichnisse hinzu.
(vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/mask-rcnn
Fügen Sie einige zusätzliche erforderliche Umgebungsvariablen hinzu:
(vm)$ export RESNET_CHECKPOINT=gs://cloud-tpu-checkpoints/retinanet/resnet50-checkpoint-2018-02-07 (vm)$ export TRAIN_FILE_PATTERN=${DATA_DIR}/train-* (vm)$ export EVAL_FILE_PATTERN=${DATA_DIR}/val-* (vm)$ export VAL_JSON_FILE=${DATA_DIR}/instances_val2017.json
Legen Sie die Umgebungsvariable
PYTHONPATH
fest:TPU-VM
(vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/tpu/models"
TPU-Knoten
(vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/models"
Wechseln Sie zum Verzeichnis, in dem sich das Modell befindet:
TPU-VM
(vm)$ cd /usr/share/tpu/models/official/vision
TPU-Knoten
(vm)$ cd /usr/share/models/official/legacy/detection
Das folgende Skript führt ein Beispieltraining aus, das zehn Trainingsschritte und zehn Bewertungsschritte umfasst. Der Vorgang auf einer v3-8-TPU dauert ungefähr 6 Minuten. Das Training zur Konvergenz dauert etwa 22.500 Schritte und ca. 6 Stunden auf einer v3-8-TPU.
Führen Sie den folgenden Befehl aus, um das Mask-RCNN-Modell zu trainieren:
(vm)$ python3 train.py \ --tpu=${TPU_NAME} \ --experiment=maskrcnn_resnetfpn_coco \ --mode=train_and_eval \ --config_file=configs/experiments/maskrcnn/r50fpn_640_coco_scratch_tpu4x4.yaml \ --model_dir=${MODEL_DIR} \ --params_override="task.train_data.input_path=${TRAIN_FILE_PATTERN},task.validation_data.input_path=${EVAL_FILE_PATTERN},task.annotation_file=${VAL_JSON_FILE},runtime.distribution_strategy=tpu,trainer.train_steps=10,trainer.validation_steps=10,task.train_data.global_batch_size=8,task.validation_data.global_batch_size=8"
Beschreibung der Befehls-Flags
strategy_type
- Die Vertriebsstrategie.
tpu
- Der Name Ihrer TPU.
- Gibt das Verzeichnis an, in dem während des Modelltrainings Prüfpunkte und Zusammenfassungen gespeichert werden. Wenn der Ordner fehlt, erstellt das Programm einen. Wenn eine Cloud TPU verwendet wird, muss
model_dir
ein Cloud Storage-Pfad sein (`gs://...`). Sie können einen vorhandenen Ordner wiederverwenden, um aktuelle Prüfpunktdaten zu laden und zusätzliche Prüfpunkte zu speichern, sofern die vorherigen Prüfpunkte mit TPU derselben Größe und TensorFlow-Version erstellt wurden.
model_dir
Wenn das Training abgeschlossen ist, wird eine Meldung wie diese angezeigt:
{'frcnn_box_loss': 0.033865165, 'frcnn_cls_loss': 1.2535654, 'learning_rate': 0.008266499, 'mask_loss': 1.2039567, 'model_loss': 2.821458, 'rpn_box_loss': 0.034982488, 'rpn_score_loss': 0.2950886, 'total_loss': 4.340171, 'training_loss': 4.340171} train | step: 10 | steps/sec: 0.1 | output: {'frcnn_box_loss': 0.033865165, 'frcnn_cls_loss': 1.2535654, 'learning_rate': 0.008266499, 'mask_loss': 1.2039567, 'model_loss': 2.821458, 'rpn_box_loss': 0.034982488, 'rpn_score_loss': 0.2950886, 'total_loss': 4.340171, 'training_loss': 4.340171}
Darauf folgt die Ausgabe der Bewertungsschritte.
Sie haben jetzt das Training und die Bewertung für ein einzelnes Gerät abgeschlossen. Führen Sie die folgenden Schritte aus, um die aktuellen Ressourcen des TPU-Einzelgeräts zu löschen.
Trennen Sie die Verbindung zur Compute Engine-Instanz:
(vm)$ exit
Die Eingabeaufforderung sollte nun
username@projectname
lauten und angeben, dass Sie sich in Cloud Shell befinden.Löschen Sie die TPU-Ressource.
TPU-VM
$ gcloud compute tpus tpu-vm delete mask-rcnn-tutorial \ --zone=europe-west4-a
Beschreibung der Befehls-Flags
zone
- Die Zone, in der sich Ihre Cloud TPU befindet.
TPU-Knoten
$ gcloud compute tpus execution-groups delete mask-rcnn-tutorial \ --tpu-only \ --zone=europe-west4-a
Beschreibung der Befehls-Flags
tpu-only
- Löscht nur die Cloud TPU. Die VM bleibt verfügbar.
zone
- Die Zone, in der die zu löschende TPU enthalten ist.
An dieser Stelle können Sie entweder diese Anleitung beenden und eine Bereinigung durchführen oder die Ausführung des Modells auf Cloud TPU Pods fortsetzen.
Modell mit Cloud TPU Pods skalieren
Für das Training Ihres Modells auf Cloud TPU Pods sind möglicherweise einige Änderungen an Ihrem Trainingsskript erforderlich. Weitere Informationen finden Sie unter Auf TPU-Pods trainieren.
TPU-Pod-Training
Öffnen Sie ein Cloud Shell-Fenster.
Erstellen Sie eine Variable für Ihre Projekt-ID.
export PROJECT_ID=project-id
Konfigurieren Sie die Google Cloud CLI so, dass das Projekt verwendet wird, in dem Sie die Cloud TPU erstellen möchten.
gcloud config set project ${PROJECT_ID}
Wenn Sie diesen Befehl zum ersten Mal in einer neuen Cloud Shell-VM ausführen, wird die Seite
Authorize Cloud Shell
angezeigt. Klicken Sie unten auf der Seite aufAuthorize
, umgcloud
zu erlauben, Google Cloud API-Aufrufe mit Ihren Anmeldedaten auszuführen.Erstellen Sie ein Dienstkonto für das Cloud TPU-Projekt.
Dienstkonten ermöglichen dem Cloud TPU-Dienst den Zugriff auf andere Google Cloud-Dienste.
gcloud beta services identity create --service tpu.googleapis.com --project $PROJECT_ID
Der Befehl gibt ein Cloud TPU-Dienstkonto im folgenden Format zurück:
service-PROJECT_NUMBER@cloud-tpu.iam.gserviceaccount.com
Wenn Sie das COCO-Dataset bereits vorbereitet und in den Storage-Bucket verschoben haben, können Sie es für das Pod-Training wiederverwenden. Wenn Sie das COCO-Dataset noch nicht vorbereitet haben, bereiten Sie es jetzt vor und kehren Sie dann hierher zurück, um das Training einzurichten.
Cloud TPU-Pod starten
In dieser Anleitung wird ein v3-32-Pod angegeben. Weitere Pod-Optionen finden Sie auf der Seite zu verfügbaren TPU-Typen.
TPU-VM
$ gcloud compute tpus tpu-vm create mask-rcnn-tutorial \ --zone=europe-west4-a \ --accelerator-type=v3-32 \ --version=tpu-vm-tf-2.13.0-pod
TPU-Knoten
(vm)$ gcloud compute tpus execution-groups create \ --zone=europe-west4-a \ --name=mask-rcnn-tutorial \ --accelerator-type=v3-32 \ --tf-version=2.12.0
Beschreibung der Befehls-Flags
zone
- Die Zone, in der Sie Ihre Cloud TPU erstellen möchten.
tpu-only
- Erstellt nur die Cloud TPU. Standardmäßig erstellt der Befehl
gcloud compute tpus execution-groups
eine VM und eine Cloud TPU. accelerator-type
- Der Typ der zu erstellenden Cloud TPU.
tf-version
- Die Tensorflow-Version
gcloud
wird auf der VM installiert.
Wenn Sie nicht automatisch bei der Compute Engine-Instanz angemeldet werden, melden Sie sich mit dem folgenden
ssh
-Befehl an. Wenn Sie bei der VM angemeldet sind, ändert sich die Shell-Eingabeaufforderung vonusername@projectname
inusername@vm-name
:TPU-VM
gcloud compute tpus tpu-vm ssh mask-rcnn-tutorial --zone=europe-west4-a
TPU-Knoten
gcloud compute ssh mask-rcnn-tutorial --zone=europe-west4-a
Installieren Sie TensorFlow-Anforderungen.
Der verwendete Befehl hängt davon ab, ob Sie TPU-VMs oder TPU-Knoten verwenden.
TPU-VM
(vm)$ pip3 install -r /usr/share/tpu/models/official/requirements.txt
TPU-Knoten
(vm)$ pip3 install --user -r /usr/share/models/official/requirements.txt
Für das Trainingsskript ist ein zusätzliches Paket erforderlich. Installieren Sie es jetzt.
(vm)$ pip3 install --user tensorflow-model-optimization>=0.1.3
Legen Sie die Cloud TPU-Namensvariable fest.
(vm)$ export TPU_NAME=mask-rcnn-tutorial
Richten Sie die folgenden Umgebungsvariablen ein und ersetzen Sie bucket-name durch den Namen Ihres Cloud Storage-Buckets:
(vm)$ export STORAGE_BUCKET=gs://bucket-name
Fügen Sie einige zusätzliche erforderliche Umgebungsvariablen hinzu:
(vm)$ export RESNET_CHECKPOINT=gs://cloud-tpu-checkpoints/retinanet/resnet50-checkpoint-2018-02-07 (vm)$ export DATA_DIR=${STORAGE_BUCKET}/coco (vm)$ export TRAIN_FILE_PATTERN=${DATA_DIR}/train-* (vm)$ export EVAL_FILE_PATTERN=${DATA_DIR}/val-* (vm)$ export VAL_JSON_FILE=${DATA_DIR}/instances_val2017.json (vm)$ export MODEL_DIR=${STORAGE_BUCKET}/mask-rcnn-pod
Legen Sie die Umgebungsvariable
PYTHONPATH
fest:TPU-VM
(vm)$ export PYTHONPATH="/usr/share/tpu/models:${PYTHONPATH}" (vm)$ export TPU_LOAD_LIBRARY=0
TPU-Knoten
(vm)$ export PYTHONPATH="${PYTHONPATH}:/usr/share/models"
Wechseln Sie zum Verzeichnis, in dem sich das Modell befindet:
TPU-VM
(vm)$ cd /usr/share/tpu/models/official/vision
TPU-Knoten
(vm)$ cd /usr/share/models/official/legacy/detection
Modell trainieren
Bei diesem Verfahren wird das Modell mit dem COCO-Dataset in 10 Trainingsschritten trainiert. Dieses Training dauert auf einer v3-32-Cloud TPU etwa 10 Minuten.
TPU-VM
(vm)$ python3 train.py \ --tpu=${TPU_NAME} \ --experiment=maskrcnn_resnetfpn_coco \ --mode=train_and_eval \ --config_file=configs/experiments/maskrcnn/r50fpn_640_coco_scratch_tpu4x4.yaml \ --model_dir=${MODEL_DIR} \ --params_override="task.train_data.input_path=${TRAIN_FILE_PATTERN},task.validation_data.input_path=${EVAL_FILE_PATTERN},task.annotation_file=${VAL_JSON_FILE},runtime.distribution_strategy=tpu,trainer.train_steps=10,trainer.validation_steps=10,task.train_data.global_batch_size=256,task.validation_data.global_batch_size=256"
Beschreibung der Befehls-Flags
tpu
- Der Name Ihrer TPU.
model_dir
- Gibt das Verzeichnis an, in dem während des Modelltrainings Prüfpunkte und Zusammenfassungen gespeichert werden. Wenn der Ordner fehlt, erstellt das Programm einen. Wenn Sie eine Cloud TPU verwenden, muss
model_dir
ein Cloud Storage-Pfad (gs://...
) sein. Sie können einen vorhandenen Ordner wiederverwenden, um aktuelle Prüfpunktdaten zu laden und zusätzliche Prüfpunkte zu speichern, solange die vorherigen Prüfpunkte mit Cloud TPU derselben Größe und TensorFlow-Version erstellt wurden. params_override
- Ein JSON-String, der Standardskriptparameter überschreibt.
TPU-Knoten
(vm)$ python3 main.py \ --strategy_type=tpu \ --tpu=${TPU_NAME} \ --model_dir=${MODEL_DIR} \ --mode=train \ --model=mask_rcnn \ --params_override="{train: { batch_size: 128, iterations_per_loop: 500, total_steps: 20, learning_rate: {'learning_rate_levels': [0.008, 0.0008], 'learning_rate_steps': [10000, 13000] }, checkpoint: { path: ${RESNET_CHECKPOINT}, prefix: resnet50/ }, train_file_pattern: ${TRAIN_FILE_PATTERN} }, eval: { val_json_file: ${VAL_JSON_FILE}, eval_file_pattern: ${EVAL_FILE_PATTERN}} }"
Beschreibung der Befehls-Flags
tpu
- Der Name Ihrer TPU.
model_dir
- Gibt das Verzeichnis an, in dem während des Modelltrainings Prüfpunkte und Zusammenfassungen gespeichert werden. Wenn der Ordner fehlt, erstellt das Programm einen. Wenn Sie eine Cloud TPU verwenden, muss
model_dir
ein Cloud Storage-Pfad (gs://...
) sein. Sie können einen vorhandenen Ordner wiederverwenden, um aktuelle Prüfpunktdaten zu laden und zusätzliche Prüfpunkte zu speichern, solange die vorherigen Prüfpunkte mit Cloud TPU derselben Größe und TensorFlow-Version erstellt wurden. params_override
- Ein JSON-String, der Standardskriptparameter überschreibt.
Wenn das Training abgeschlossen ist, wird eine Meldung wie diese angezeigt:
I0706 19:47:16.108213 139955064548416 controller.py:457] train | step: 10 | steps/sec: 0.1 | output: {'frcnn_box_loss': 0.05632668, 'frcnn_cls_loss': 1.3012192, 'learning_rate': 0.008266499, 'mask_loss': 1.2371812, 'model_loss': 2.9746659, 'rpn_box_loss': 0.08227444, 'rpn_score_loss': 0.2976642, 'total_loss': 4.493513, 'training_loss': 4.493513} train | step: 10 | steps/sec: 0.1 | output: {'frcnn_box_loss': 0.05632668, 'frcnn_cls_loss': 1.3012192, 'learning_rate': 0.008266499, 'mask_loss': 1.2371812, 'model_loss': 2.9746659, 'rpn_box_loss': 0.08227444, 'rpn_score_loss': 0.2976642, 'total_loss': 4.493513, 'training_loss': 4.493513}
Bereinigen
Damit Ihrem Google Cloud-Konto die in dieser Anleitung verwendeten Ressourcen nicht in Rechnung gestellt werden, löschen Sie entweder das Projekt, das die Ressourcen enthält, oder Sie behalten das Projekt und löschen die einzelnen Ressourcen.
Löschen Sie nach dem Training die TPU-VM und entfernen Sie den Storage-Bucket.
Trennen Sie die Verbindung zur Compute Engine-Instanz, sofern noch nicht geschehen:
(vm)$ exit
Die Eingabeaufforderung sollte nun
username@projectname
lauten und angeben, dass Sie sich in Cloud Shell befinden.Löschen Sie Ihre Cloud TPU- und Compute Engine-Ressourcen. Der Befehl zum Löschen Ihrer Ressourcen hängt davon ab, ob Sie TPU-VMs oder TPU-Knoten verwenden. Weitere Informationen finden Sie unter Systemarchitektur.
TPU-VM
$ gcloud compute tpus tpu-vm delete mask-rcnn-tutorial \ --zone=europe-west4-a
TPU-Knoten
$ gcloud compute tpus execution-groups delete mask-rcnn-tutorial \ --zone=europe-west4-a
Prüfen Sie, ob die Ressourcen gelöscht wurden. Führen Sie dazu
gcloud compute tpus execution-groups list
aus. Der Löschvorgang kann einige Minuten dauern. Die Ausgabe des folgenden Befehls sollte keine der in dieser Anleitung erstellten TPU-Ressourcen enthalten:$ gcloud compute tpus execution-groups list --zone=europe-west4-a
Führen Sie
gsutil
wie angegeben aus und ersetzen Sie dabei bucket-name durch den Namen des Cloud Storage-Buckets, den Sie für diese Anleitung erstellt haben:$ gsutil rm -r gs://bucket-name
Nächste Schritte
In den Cloud TPU-Anleitungen von TensorFlow wird das Modell in der Regel mithilfe eines Beispiel-Datasets trainiert. Die Ergebnisse dieses Trainings können nicht für eine Inferenz verwendet werden. Wenn Sie ein Modell für die Inferenz verwenden möchten, können Sie die Daten mit einem öffentlich verfügbaren Dataset oder Ihrem eigenen Dataset trainieren. TensorFlow-Modelle, die auf Cloud TPUs trainiert werden, benötigen im Allgemeinen Datasets im Format TFRecord.
Sie können das Beispiel für das Dataset-Konvertierungstool verwenden, um ein Bildklassifizierungs-Dataset in das TFRecord-Format zu konvertieren. Wenn Sie kein Bildklassifizierungsmodell verwenden, müssen Sie das Dataset selbst in das TFRecords-Format konvertieren. Weitere Informationen finden Sie unter TFRecord und tf.Example
Hyperparameter-Feinabstimmung
Sie können die Hyperparameter des Modells optimieren, um die Leistung des Modells mit Ihrem Dataset zu verbessern. Informationen zu Hyperparametern, die für alle TPU-unterstützten Modelle üblich sind, finden Sie auf GitHub. Informationen zu modellspezifischen Hyperparametern finden Sie im Quellcode für die einzelnen Modelle. Weitere Informationen zur Hyperparameter-Abstimmung finden Sie unter Übersicht über Hyperparameter-Abstimmung, Hyperparameter-Abstimmungsdienst und Hyperparameter abstimmen.
Inferenz
Sobald Ihr Modell trainiert ist, können Sie es für Inferenz (auch als Vorhersage bezeichnet) verwenden. AI Platform ist eine cloudbasierte Lösung, mit der Sie Modelle für maschinelles Lernen entwickeln, trainieren und bereitstellen können. Sobald ein Modell bereitgestellt wurde, können Sie den AI Platform Prediction-Dienst verwenden.