TPU v2

Questo documento descrive l'architettura e le configurazioni supportate di Cloud TPU v2.

Architettura di sistema

I dettagli dell'architettura e le caratteristiche di prestazioni di TPU v2 sono disponibili in A Domain Specific Supercomputer for Training Deep Neural Networks.

Configurazioni

Un pod TPU v2 è composto da 512 chip interconnessi con link ad alta velocità riconfigurabili. Per creare una sezione di pod TPU v2, utilizza il flag --accelerator-type nel comando di creazione della TPU (gcloud compute tpus tpu-vm). Specifica il tipo di acceleratore specificando la versione di TPU e il numero di core TPU. Ad esempio, per una singola TPU v2, utilizza --accelerator-type=v2-8. Per una sezione del pod v2 con 128 TensorCore, utilizza --accelerator-type=v2-128.

Il seguente comando mostra come creare una sezione di pod di TPU v2 con 128 TensorCore:

  $ gcloud compute tpus tpu-vm create tpu-name \
    --zone=zone \
    --accelerator-type=v2-128 \
    --version=tpu-vm-tf-2.18.0-pod-pjrt

Per ulteriori informazioni sulla gestione delle TPU, consulta Gestire le TPU. Per ulteriori informazioni sull'architettura di sistema TPU di Cloud TPU, consulta Architettura di sistema.

Nella tabella seguente sono elencati i tipi di TPU v2 supportati:

Versione TPU Termine del supporto
v2-8 (Data di fine non ancora impostata)
v2-32 (Data di fine non ancora impostata)
v2-128 (Data di fine non ancora impostata)
v2-256 (Data di fine non ancora impostata)
v2-512 (Data di fine non ancora impostata)