TPU v2

Dokumen ini menjelaskan arsitektur dan konfigurasi yang didukung dari Cloud TPU v2.

Arsitektur sistem

Detail arsitektur dan karakteristik performa TPU v2 tersedia di Superkomputer Khusus Domain untuk Melatih Jaringan Neural Dalam.

Konfigurasi

Pod TPU v2 terdiri dari 512 chip yang saling terhubung dengan link berkecepatan tinggi yang dapat dikonfigurasi ulang. Untuk membuat slice Pod TPU v2, gunakan flag --accelerator-type dalam perintah pembuatan TPU (gcloud compute tpus tpu-vm). Anda menentukan jenis akselerator dengan menentukan versi TPU dan jumlah core TPU. Misalnya, untuk satu TPU v2, gunakan --accelerator-type=v2-8. Untuk slice Pod v2 dengan 128 TensorCore, gunakan --accelerator-type=v2-128.

Perintah berikut menunjukkan cara membuat slice Pod TPU v2 dengan 128 TensorCore:

  $ gcloud compute tpus tpu-vm create tpu-name \
    --zone=zone \
    --accelerator-type=v2-128 \
    --version=tpu-vm-tf-2.18.0-pod-pjrt

Untuk informasi selengkapnya tentang cara mengelola TPU, lihat Mengelola TPU. Untuk informasi selengkapnya tentang arsitektur sistem TPU Cloud TPU, lihat Arsitektur sistem.

Tabel berikut mencantumkan jenis TPU v2 yang didukung:

Versi TPU Dukungan berakhir
v2-8 (Tanggal akhir belum ditetapkan)
v2-32 (Tanggal akhir belum ditetapkan)
v2-128 (Tanggal akhir belum ditetapkan)
v2-256 (Tanggal akhir belum ditetapkan)
v2-512 (Tanggal akhir belum ditetapkan)