TPU v2

In diesem Dokument werden die Architektur und die unterstützten Konfigurationen von Cloud TPU v2.

Systemarchitektur

Architektonische Details und Leistungsmerkmale von TPU v2 sind verfügbar in Ein domainspezifischer Supercomputer für das Training neuronaler Deep-Learning-Anwendungen Netzwerke:

Konfigurationen

Ein TPU v2-Pod besteht aus 512 Chips, die miteinander verbunden sind. Hochgeschwindigkeits-Links. Verwenden Sie zum Erstellen eines TPU v2-Pod-Slice den --accelerator-type im TPU-Erstellungsbefehl (gcloud compute tpus tpu-vm) verwenden. Sie geben die Beschleunigertyp durch Angabe der TPU-Version und der Anzahl der TPU-Kerne. Für Verwenden Sie beispielsweise für eine einzelne v2 TPU --accelerator-type=v2-8. Für ein v2-Pod-Slice mit 128 TensorCores, verwenden Sie --accelerator-type=v2-128.

Der folgende Befehl zeigt, wie Sie ein v2 TPU-Pod-Slice mit 128 TensorCores:

  $ gcloud compute tpus tpu-vm create tpu-name \
    --zone=zone \
    --accelerator-type=v2-128 \
    --version=tpu-vm-tf-2.17.0-pjrt

Weitere Informationen zum Verwalten von TPUs finden Sie unter Verwalten von TPUs TPUs Weitere Informationen zum TPU-System Architektur von Cloud TPU, siehe System Architektur.

In der folgenden Tabelle sind die unterstützten v2-TPU-Typen aufgeführt:

TPU-Version Support-Ende
v2-8 (Enddatum wurde noch nicht festgelegt)
v2-32 (Enddatum wurde noch nicht festgelegt)
v2-128 (Enddatum wurde noch nicht festgelegt)
v2-256 (Enddatum wurde noch nicht festgelegt)
v2-512 (Enddatum wurde noch nicht festgelegt)