TPU v2
In diesem Dokument werden die Architektur und die unterstützten Konfigurationen von Cloud TPU v2 beschrieben.
Systemarchitektur
Details zur Architektur und zu den Leistungsmerkmalen von TPU v2 sind unter Domainspezifischer Supercomputer zum Trainieren neuronaler Deep-Learning-Netzwerke verfügbar.
Konfigurationen
Ein TPU v2-Pod besteht aus 512 Chips, die über rekonfigurierbare Hochgeschwindigkeitsverbindungen miteinander verbunden sind. Verwenden Sie das Flag --accelerator-type
im Befehl zum Erstellen von TPUs (gcloud compute tpus tpu-vm
), um ein TPU v2-Pod-Slice zu erstellen. Geben Sie den Accelerator-Typ an, indem Sie die TPU-Version und die Anzahl der TPU-Cores angeben. Verwenden Sie für eine einzelne TPU v2 beispielsweise --accelerator-type=v2-8
. Verwenden Sie für ein v2-Pod-Slice mit 128 TensorCores --accelerator-type=v2-128
.
Mit dem folgenden Befehl wird ein TPU-Pod-Speicherl mit 128 TensorCores erstellt:
$ gcloud compute tpus tpu-vm create tpu-name \ --zone=zone \ --accelerator-type=v2-128 \ --version=tpu-vm-tf-2.18.0-pod-pjrt
Weitere Informationen zum Verwalten von TPUs finden Sie unter TPUs verwalten. Weitere Informationen zur TPU-Systemarchitektur von Cloud TPU finden Sie unter Systemarchitektur.
In der folgenden Tabelle sind die unterstützten TPU-Typen der Version 2 aufgeführt:
TPU-Version | Support-Ende |
---|---|
v2-8 | (Enddatum wurde noch nicht festgelegt) |
v2-32 | (Enddatum wurde noch nicht festgelegt) |
v2-128 | (Enddatum wurde noch nicht festgelegt) |
v2-256 | (Enddatum wurde noch nicht festgelegt) |
v2-512 | (Enddatum wurde noch nicht festgelegt) |