TPU v2

In diesem Dokument werden die Architektur und die unterstützten Konfigurationen von Cloud TPU v2 beschrieben.

Systemarchitektur

Architekturdetails und Leistungsmerkmale von TPU v2 finden Sie unter Ein domainspezifischer Supercomputer zum Trainieren von neuronalen Deep-Learning-Netzwerken.

Konfigurationen

Ein TPU v2 Pod besteht aus 512 Chips, die über neu konfigurierbare Hochgeschwindigkeitsverbindungen miteinander verbunden sind. Verwenden Sie zum Erstellen eines TPU v2 Pod-Slice das Flag --accelerator-type im Befehl zur TPU-Erstellung (gcloud compute tpus tpu-vm). Sie geben den Beschleunigertyp an, indem Sie die TPU-Version und die Anzahl der TPU-Kerne angeben. Verwenden Sie beispielsweise --accelerator-type=v2-8 für eine einzelne v2-TPU. Verwenden Sie --accelerator-type=v2-128 für ein v2 Pod-Slice mit 128 TensorCores.

Der folgende Befehl zeigt, wie Sie ein v2 TPU-Pod-Slice mit 128 Tensorkernen erstellen:

  $ gcloud compute tpus tpu-vm create tpu-name \
    --zone=zone \
    --accelerator-type=v2-128 \
    --version=tpu-vm-tf-2.16.1-pjrt

Weitere Informationen zum Verwalten von TPUs finden Sie unter TPUs verwalten. Weitere Informationen zur TPU-Systemarchitektur von Cloud TPU finden Sie unter Systemarchitektur.

In der folgenden Tabelle sind die unterstützten v2-TPU-Typen aufgeführt:

TPU-Version Support-Ende
v2-8 (Enddatum wurde noch nicht festgelegt)
v2-32 (Enddatum wurde noch nicht festgelegt)
v2-128 (Enddatum wurde noch nicht festgelegt)
v2-256 (Enddatum wurde noch nicht festgelegt)
v2-512 (Enddatum wurde noch nicht festgelegt)