TPU v2

Questo documento descrive l'architettura e le configurazioni supportate di Cloud TPU v2.

Architettura di sistema

I dettagli dell'architettura e le caratteristiche di prestazioni di TPU v2 sono disponibili in A Domain Specific Supercomputer for Training Deep Neural Networks.

Configurazioni

Un pod TPU v2 è composto da 512 chip interconnessi con componenti link ad alta velocità. Per creare una sezione di pod TPU v2, utilizza il flag --accelerator-type nel comando di creazione della TPU (gcloud compute tpus tpu-vm). Specifica il tipo di acceleratore specificando la versione di TPU e il numero di core TPU. Per ad esempio, per una singola TPU v2, utilizza --accelerator-type=v2-8. Per una sezione del pod v2 con 128 TensorCore, utilizza --accelerator-type=v2-128.

Il seguente comando mostra come creare una sezione di pod TPU v2 con 128 TensorCore:

  $ gcloud compute tpus tpu-vm create tpu-name \
    --zone=zone \
    --accelerator-type=v2-128 \
    --version=tpu-vm-tf-2.17.0-pod-pjrt

Per ulteriori informazioni sulla gestione delle TPU, consulta Gestire TPU. Per ulteriori informazioni sul sistema TPU per l'architettura di Cloud TPU, consulta dell'architettura.

Nella tabella seguente sono elencati i tipi di TPU v2 supportati:

Versione TPU Data di fine del supporto
v2-8 (data di fine non ancora impostata)
v2-32 (data di fine non ancora impostata)
v2-128 (data di fine non ancora impostata)
v2-256 (data di fine non ancora impostata)
v2-512 (Data di fine non ancora impostata)