TPU v2

Dokumen ini menjelaskan arsitektur dan konfigurasi Cloud TPU v2 yang didukung.

Arsitektur sistem

Detail arsitektur dan karakteristik performa TPU v2 tersedia di Superkomputer Spesifik Per Domain untuk Pelatihan Jaringan Neural Dalam.

Konfigurasi

Pod TPU v2 terdiri dari 512 chip yang saling terhubung dengan link berkecepatan tinggi yang dapat dikonfigurasi ulang. Untuk membuat slice Pod TPU v2, gunakan flag --accelerator-type di perintah pembuatan TPU (gcloud compute tpus tpu-vm). Anda menentukan jenis akselerator dengan menentukan versi TPU dan jumlah core TPU. Misalnya, untuk satu TPU v2, gunakan --accelerator-type=v2-8. Untuk slice Pod v2 dengan 128 TensorCore, gunakan --accelerator-type=v2-128.

Perintah berikut menunjukkan cara membuat slice Pod TPU v2 dengan 128 TensorCore:

  $ gcloud compute tpus tpu-vm create tpu-name \
    --zone=zone \
    --accelerator-type=v2-128 \
    --version=tpu-vm-tf-2.16.1-pjrt

Untuk mengetahui informasi selengkapnya tentang cara mengelola TPU, lihat Mengelola TPU. Untuk mengetahui informasi selengkapnya tentang arsitektur sistem TPU untuk Cloud TPU, lihat Arsitektur sistem.

Tabel berikut mencantumkan jenis TPU v2 yang didukung:

Versi TPU Dukungan berakhir
v2-8 (Tanggal akhir belum ditetapkan)
v2-32 (Tanggal akhir belum ditetapkan)
v2-128 (Tanggal akhir belum ditetapkan)
v2-256 (Tanggal akhir belum ditetapkan)
v2-512 (Tanggal akhir belum ditetapkan)