TPU v2

In diesem Dokument werden die Architektur und die unterstützten Konfigurationen von Cloud TPU v2.

Systemarchitektur

Details zur Architektur und zu den Leistungsmerkmalen von TPU v2 sind unter Domainspezifischer Supercomputer zum Trainieren neuronaler Deep-Learning-Netzwerke verfügbar.

Konfigurationen

Ein TPU v2-Pod besteht aus 512 Chips, die miteinander verbunden sind. Hochgeschwindigkeits-Links. Verwenden Sie das Flag --accelerator-type im Befehl zum Erstellen von TPUs (gcloud compute tpus tpu-vm), um ein TPU v2-Pod-Slice zu erstellen. Geben Sie den Accelerator-Typ an, indem Sie die TPU-Version und die Anzahl der TPU-Cores angeben. Verwenden Sie für eine einzelne v2-TPU beispielsweise --accelerator-type=v2-8. Für ein v2-Pod-Slice mit 128 TensorCores, verwenden Sie --accelerator-type=v2-128.

Der folgende Befehl zeigt, wie Sie ein v2 TPU-Pod-Slice mit 128 TensorCores:

  $ gcloud compute tpus tpu-vm create tpu-name \
    --zone=zone \
    --accelerator-type=v2-128 \
    --version=tpu-vm-tf-2.17.0-pod-pjrt

Weitere Informationen zum Verwalten von TPUs finden Sie unter Verwalten von TPUs TPUs Weitere Informationen zum TPU-System Architektur von Cloud TPU, siehe System Architektur.

In der folgenden Tabelle sind die unterstützten TPU-Typen der Version 2 aufgeführt:

TPU-Version Support-Ende
v2-8 (Enddatum wurde noch nicht festgelegt)
v2-32 (Enddatum wurde noch nicht festgelegt)
v2-128 (Enddatum wurde noch nicht festgelegt)
v2-256 (Enddatum wurde noch nicht festgelegt)
v2-512 (Enddatum wurde noch nicht festgelegt)