TPU v2
Dokumen ini menjelaskan arsitektur dan konfigurasi Cloud TPU v2 yang didukung.
Arsitektur sistem
Detail arsitektur dan karakteristik performa TPU v2 tersedia di Superkomputer Spesifik Per Domain untuk Pelatihan Jaringan Neural Dalam.
Konfigurasi
Pod TPU v2 terdiri dari 512 chip yang saling terhubung dengan link berkecepatan tinggi yang dapat dikonfigurasi ulang. Untuk membuat slice Pod TPU v2, gunakan flag --accelerator-type
di perintah pembuatan TPU (gcloud compute tpus tpu-vm
). Anda menentukan
jenis akselerator dengan menentukan versi TPU dan jumlah core TPU. Misalnya, untuk satu TPU v2, gunakan --accelerator-type=v2-8
. Untuk slice Pod v2 dengan 128 TensorCore, gunakan --accelerator-type=v2-128
.
Perintah berikut menunjukkan cara membuat slice Pod TPU v2 dengan 128 TensorCore:
$ gcloud compute tpus tpu-vm create tpu-name \
--zone=zone \
--accelerator-type=v2-128 \
--version=tpu-vm-tf-2.16.1-pjrt
Untuk mengetahui informasi selengkapnya tentang cara mengelola TPU, lihat Mengelola TPU. Untuk mengetahui informasi selengkapnya tentang arsitektur sistem TPU untuk Cloud TPU, lihat Arsitektur sistem.
Tabel berikut mencantumkan jenis TPU v2 yang didukung:
Versi TPU | Dukungan berakhir |
---|---|
v2-8 | (Tanggal akhir belum ditetapkan) |
v2-32 | (Tanggal akhir belum ditetapkan) |
v2-128 | (Tanggal akhir belum ditetapkan) |
v2-256 | (Tanggal akhir belum ditetapkan) |
v2-512 | (Tanggal akhir belum ditetapkan) |