TPU v2
In diesem Dokument werden die Architektur und die unterstützten Konfigurationen von Cloud TPU v2 beschrieben.
Systemarchitektur
Architekturdetails und Leistungsmerkmale von TPU v2 finden Sie unter Ein domainspezifischer Supercomputer zum Trainieren von neuronalen Deep-Learning-Netzwerken.
Konfigurationen
Ein TPU v2 Pod besteht aus 512 Chips, die über neu konfigurierbare Hochgeschwindigkeitsverbindungen miteinander verbunden sind. Verwenden Sie zum Erstellen eines TPU v2 Pod-Slice das Flag --accelerator-type
im Befehl zur TPU-Erstellung (gcloud compute tpus tpu-vm
). Sie geben den Beschleunigertyp an, indem Sie die TPU-Version und die Anzahl der TPU-Kerne angeben. Verwenden Sie beispielsweise --accelerator-type=v2-8
für eine einzelne v2-TPU. Verwenden Sie --accelerator-type=v2-128
für ein v2 Pod-Slice mit 128 TensorCores.
Der folgende Befehl zeigt, wie Sie ein v2 TPU-Pod-Slice mit 128 Tensorkernen erstellen:
$ gcloud compute tpus tpu-vm create tpu-name \
--zone=zone \
--accelerator-type=v2-128 \
--version=tpu-vm-tf-2.16.1-pjrt
Weitere Informationen zum Verwalten von TPUs finden Sie unter TPUs verwalten. Weitere Informationen zur TPU-Systemarchitektur von Cloud TPU finden Sie unter Systemarchitektur.
In der folgenden Tabelle sind die unterstützten v2-TPU-Typen aufgeführt:
TPU-Version | Support-Ende |
---|---|
v2-8 | (Enddatum wurde noch nicht festgelegt) |
v2-32 | (Enddatum wurde noch nicht festgelegt) |
v2-128 | (Enddatum wurde noch nicht festgelegt) |
v2-256 | (Enddatum wurde noch nicht festgelegt) |
v2-512 | (Enddatum wurde noch nicht festgelegt) |