TPU v2
Dokumen ini menjelaskan arsitektur dan konfigurasi yang didukung dari Cloud TPU v2.
Arsitektur sistem
Detail arsitektur dan karakteristik performa TPU v2 tersedia di Superkomputer Khusus Domain untuk Melatih Jaringan Neural Dalam.
Konfigurasi
Pod TPU v2 terdiri dari 512 chip yang saling terhubung dengan link berkecepatan tinggi yang dapat dikonfigurasi ulang. Untuk membuat slice Pod TPU v2, gunakan flag --accelerator-type
dalam perintah pembuatan TPU (gcloud compute tpus tpu-vm
). Anda menentukan
jenis akselerator dengan menentukan versi TPU dan jumlah core TPU. Misalnya, untuk satu TPU v2, gunakan --accelerator-type=v2-8
. Untuk slice Pod v2 dengan 128 TensorCore, gunakan --accelerator-type=v2-128
.
Perintah berikut menunjukkan cara membuat slice Pod TPU v2 dengan 128 TensorCore:
$ gcloud compute tpus tpu-vm create tpu-name \ --zone=zone \ --accelerator-type=v2-128 \ --version=tpu-vm-tf-2.18.0-pod-pjrt
Untuk informasi selengkapnya tentang cara mengelola TPU, lihat Mengelola TPU. Untuk informasi selengkapnya tentang arsitektur sistem TPU Cloud TPU, lihat Arsitektur sistem.
Tabel berikut mencantumkan jenis TPU v2 yang didukung:
Versi TPU | Dukungan berakhir |
---|---|
v2-8 | (Tanggal akhir belum ditetapkan) |
v2-32 | (Tanggal akhir belum ditetapkan) |
v2-128 | (Tanggal akhir belum ditetapkan) |
v2-256 | (Tanggal akhir belum ditetapkan) |
v2-512 | (Tanggal akhir belum ditetapkan) |