Tutorial ini menunjukkan cara melatih model ResNet-50 di perangkat Cloud TPU dengan PyTorch. Anda dapat menerapkan pola yang sama ke model klasifikasi gambar lain yang dioptimalkan untuk TPU yang menggunakan PyTorch dan set data ImageNet.
Model dalam tutorial ini didasarkan pada Deep Residual Learning for Image Recognition, yang pertama kali memperkenalkan arsitektur jaringan residual (ResNet). Tutorial ini menggunakan varian 50 lapisan, ResNet-50, dan menunjukkan pelatihan model menggunakan PyTorch/XLA.
Tujuan
- Siapkan set data.
- Menjalankan tugas pelatihan.
- Verifikasi hasil output.
Biaya
Dalam dokumen ini, Anda menggunakan komponen Google Cloud yang dapat ditagih berikut:
- Compute Engine
- Cloud TPU
Untuk membuat perkiraan biaya berdasarkan proyeksi penggunaan Anda,
gunakan kalkulator harga.
Sebelum memulai
Sebelum memulai tutorial ini, pastikan project Google Cloud Anda sudah disiapkan dengan benar.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
Di konsol Google Cloud, pada halaman pemilih project, pilih atau buat project Google Cloud.
-
Make sure that billing is enabled for your Google Cloud project.
-
Di konsol Google Cloud, pada halaman pemilih project, pilih atau buat project Google Cloud.
-
Make sure that billing is enabled for your Google Cloud project.
Panduan ini menggunakan komponen Google Cloud yang dapat ditagih. Lihat halaman harga Cloud TPU untuk memperkirakan biaya Anda. Pastikan untuk membersihkan resource yang Anda buat setelah selesai menggunakannya untuk menghindari biaya yang tidak perlu.
Membuat VM TPU
Buka jendela Cloud Shell.
Membuat VM TPU
gcloud compute tpus tpu-vm create your-tpu-name \ --accelerator-type=v4-8 \ --version=tpu-ubuntu2204-base \ --zone=us-central2-b \ --project=your-project
Hubungkan ke VM TPU Anda menggunakan SSH:
gcloud compute tpus tpu-vm ssh your-tpu-name --zone=us-central2-b
Instal PyTorch/XLA di VM TPU Anda:
(vm)$ pip install torch~=2.2.0 torch_xla[tpu]~=2.2.0 torchvision -f https://storage.googleapis.com/libtpu-releases/index.html
Buat clone repositori github PyTorch/XLA
(vm)$ git clone --depth=1 --branch r2.2 https://github.com/pytorch/xla.git
Menjalankan skrip pelatihan dengan data palsu
(vm) $ PJRT_DEVICE=TPU python3 xla/test/test_train_mp_imagenet.py --fake_data --batch_size=256 --num_epochs=1
Jika Anda dapat melatih model menggunakan data palsu, Anda dapat mencoba melatih model pada
data sungguhan, seperti ImageNet. Untuk mengetahui petunjuk tentang cara mendownload ImageNet, lihat
Mendownload ImageNet. Dalam perintah skrip pelatihan, flag --datadir
menentukan lokasi set data tempat dilatih.
Perintah berikut mengasumsikan set data ImageNet berada di ~/imagenet
.
(vm) $ PJRT_DEVICE=TPU python3 xla/test/test_train_mp_imagenet.py --datadir=~/imagenet --batch_size=256 --num_epochs=1
Pembersihan
Agar tidak dikenakan biaya pada akun Google Cloud Anda untuk resource yang digunakan dalam tutorial ini, hapus project yang berisi resource tersebut, atau simpan project dan hapus setiap resource-nya.
Putuskan koneksi dari VM TPU:
(vm) $ exit
Prompt Anda sekarang akan menjadi
username@projectname
, yang menunjukkan bahwa Anda berada di Cloud Shell.Hapus VM TPU Anda.
$ gcloud compute tpus tpu-vm delete resnet50-tutorial \ --zone=us-central2-b
Langkah selanjutnya
Coba kolaborasi PyTorch:
- Mulai Menggunakan PyTorch di Cloud TPU
- Pelatihan MNIST pada TPU
- Melatih ResNet18 tentang TPU dengan set data Cifar10
- Inferensi dengan Model ResNet50 yang Telah Dilatih
- Transfer Gaya Neural Cepat
- Pelatihan MultiCore AlexNet di Fashion MNIST
- Pelatihan Inti Tunggal AlexNet di Fashion MNIST