In dieser Anleitung erfahren Sie, wie Sie das ResNet-50-Modell auf einem Cloud TPU-Gerät mit PyTorch trainieren. Sie können dasselbe Muster auf andere TPU-optimierte Bildklassifikationsmodelle anwenden, die PyTorch und das ImageNet-Dataset verwenden.
Das Modell in dieser Anleitung basiert auf dem Framework Deep Residual Learning for Image Recognition, in dem erstmalig die Residualnetzwerkarchitektur (ResNet-Architektur) eingeführt wurde. In der Anleitung wird die 50-Layer-Variante ResNet-50 verwendet und das Training des Modells mit PyTorch/XLA veranschaulicht.
Ziele
- Bereiten Sie das Dataset vor.
- Trainingsjob ausführen
- Ausgabeergebnisse überprüfen
Kosten
In diesem Dokument verwenden Sie die folgenden kostenpflichtigen Komponenten von Google Cloud:
- Compute Engine
- Cloud TPU
Mit dem Preisrechner können Sie eine Kostenschätzung für Ihre voraussichtliche Nutzung vornehmen.
Hinweise
Bevor Sie mit dieser Anleitung beginnen, prüfen Sie, ob Ihr Google Cloud-Projekt ordnungsgemäß eingerichtet ist.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
In dieser Anleitung werden kostenpflichtige Komponenten der Google Cloud verwendet. Rufen Sie die Seite mit den Cloud TPU-Preisen auf, um Ihre Kosten abzuschätzen. Achten Sie darauf, Ressourcen zu bereinigen, die Sie bei der Erstellung um unnötige Kosten zu vermeiden.
TPU-VM erstellen
Öffnen Sie ein Cloud Shell-Fenster.
TPU-VM erstellen
gcloud compute tpus tpu-vm create your-tpu-name \ --accelerator-type=v4-8 \ --version=tpu-ubuntu2204-base \ --zone=us-central2-b \ --project=your-project
Stellen Sie über SSH eine Verbindung zu Ihrer TPU-VM her:
gcloud compute tpus tpu-vm ssh your-tpu-name --zone=us-central2-b
So installieren Sie PyTorch/XLA auf Ihrer TPU-VM:
(vm)$ pip install torch~=2.4.0 torch_xla[tpu]~=2.4.0 torchvision -f https://storage.googleapis.com/libtpu-releases/index.html
PyTorch/XLA-GitHub-Repository klonen
(vm)$ git clone --depth=1 --branch r2.4 https://github.com/pytorch/xla.git
Trainingsskript mit fiktiven Daten ausführen
(vm) $ PJRT_DEVICE=TPU python3 xla/test/test_train_mp_imagenet.py --fake_data --batch_size=256 --num_epochs=1
Wenn Sie das Modell mit fiktiven Daten trainieren können, können Sie versuchen,
echte Daten wie ImageNet. Eine Anleitung zum Herunterladen von ImageNet finden Sie unter ImageNet herunterladen. Im Trainingsskriptbefehl
Das Flag --datadir
gibt den Standort des Datasets an, mit dem trainiert werden soll.
Im folgenden Befehl wird davon ausgegangen, dass sich der ImageNet-Dataset in ~/imagenet
befindet.
(vm) $ PJRT_DEVICE=TPU python3 xla/test/test_train_mp_imagenet.py --datadir=~/imagenet --batch_size=256 --num_epochs=1
Bereinigen
Damit Ihrem Google Cloud-Konto die in dieser Anleitung verwendeten Ressourcen nicht in Rechnung gestellt werden, löschen Sie entweder das Projekt, das die Ressourcen enthält, oder Sie behalten das Projekt und löschen die einzelnen Ressourcen.
Trennen Sie die Verbindung zur TPU-VM:
(vm) $ exit
Die Eingabeaufforderung sollte nun
username@projectname
lauten und angeben, dass Sie sich in Cloud Shell befinden.Löschen Sie Ihre TPU-VM.
$ gcloud compute tpus tpu-vm delete resnet50-tutorial \ --zone=us-central2-b
Nächste Schritte
- Diffusionsmodelle mit PyTorch trainieren
- Fehlerbehebung für Pytorch auf TPUs
- Pytorch/XLA-Dokumentation