TPU v2
Questo documento descrive l'architettura e le configurazioni supportate di Cloud TPU v2.
Architettura di sistema
I dettagli dell'architettura e le caratteristiche di prestazioni di TPU v2 sono disponibili in A Domain Specific Supercomputer for Training Deep Neural Networks.
Configurazioni
Un pod TPU v2 è composto da 512 chip interconnessi con componenti
link ad alta velocità. Per creare una sezione di pod TPU v2, utilizza il flag --accelerator-type
nel comando di creazione della TPU (gcloud compute tpus tpu-vm
). Specifica il
tipo di acceleratore specificando la versione di TPU e il numero di core TPU. Per
ad esempio, per una singola TPU v2, utilizza --accelerator-type=v2-8
. Per una sezione del pod v2 con 128 TensorCore, utilizza --accelerator-type=v2-128
.
Il seguente comando mostra come creare una sezione di pod TPU v2 con 128 TensorCore:
$ gcloud compute tpus tpu-vm create tpu-name \ --zone=zone \ --accelerator-type=v2-128 \ --version=tpu-vm-tf-2.17.0-pod-pjrt
Per ulteriori informazioni sulla gestione delle TPU, consulta Gestire TPU. Per ulteriori informazioni sul sistema TPU per l'architettura di Cloud TPU, consulta dell'architettura.
Nella tabella seguente sono elencati i tipi di TPU v2 supportati:
Versione TPU | Data di fine del supporto |
---|---|
v2-8 | (data di fine non ancora impostata) |
v2-32 | (data di fine non ancora impostata) |
v2-128 | (data di fine non ancora impostata) |
v2-256 | (data di fine non ancora impostata) |
v2-512 | (Data di fine non ancora impostata) |