TPU-Regionen und -Zonen

Übersicht

Die Hauptunterschiede zwischen TPU-Typen sind Preis, Leistung, Speicherkapazität und zonale Verfügbarkeit.

Die Google Cloud Platform verwendet Regionen, die in Zonen unterteilt sind, um den geografischen Standort von physischen Rechenressourcen zu definieren. Die Region us-central1 gibt beispielsweise eine Region in der Nähe des geografischen Zentrums der USA an. Wenn Sie einen TPU-Knoten erstellen, geben Sie die Zone an, in der Sie ihn erstellen möchten. Weitere Informationen zu regionalen und zonalen Ressourcen finden Sie im Dokument zu globalen, regionalen und zonalen Ressourcen in Compute Engine.

Sie können Ihre TPU-Konfiguration in den Zonen erstellen, die in der folgenden Tabelle gezeigt werden.

USA

TPU-Typ (v2) TPU v2-Kerne Gesamter TPU-Arbeitsspeicher Region/Zone
v2–8 8 64 GiB us-central1-b
us-central1-c
us-central1-f
v2–32 32 256 GiB us-central1-a
v2-128 128 1 TiB us-central1-a
v2-256 256 2 TiB us-central1-a
v2-512 512 4 TiB us-central1-a
TPU-Typ (v3) TPU v3-Kerne Gesamter TPU-Arbeitsspeicher Verfügbare Zonen
v3–8 8 128 GiB us-central1-a
us-central1-b
us-central1-f

Europa

TPU-Typ (v2) TPU v2-Kerne Gesamter TPU-Arbeitsspeicher Region/Zone
v2–8 8 64 GiB europe-west4-a
v2–32 32 256 GiB europe-west4-a
v2-128 128 1 TiB europe-west4-a
v2-256 256 2 TiB europe-west4-a
v2-512 512 4 TiB europe-west4-a
TPU-Typ (v3) TPU v3-Kerne Gesamter TPU-Arbeitsspeicher Verfügbare Zonen
v3–8 8 128 GiB europe-west4-a
v3-32 32 512 GiB europe-west4-a
v3–64 64 1 TiB europe-west4-a
v3–128 128 2 TiB europe-west4-a
v3–256 256 4 TiB europe-west4-a
v3–512 512 8 TiB europe-west4-a
v3–1024 1.024 16 TiB europe-west4-a
v3–2048 2.048 32 TiB europe-west4-a

Asiatisch-pazifischer Raum

TPU-Typ (v2) TPU v2-Kerne Gesamter TPU-Arbeitsspeicher Region/Zone
v2–8 8 64 GiB asia-east1-c

TPU-Typen mit einer höheren Anzahl von Chips oder Kernen sind nur in begrenztem Umfang verfügbar. TPU-Typen mit niedrigeren Chip- oder Kernzahlen sind wahrscheinlich verfügbar.

Kompromiss zwischen Preis und Leistung finden

Als Entscheidungshilfe bei der Wahl des zu verwendenden TPU-Typs können Sie mit einer Cloud TPU-Anleitung experimentieren und ein Modell trainieren, das Ihrer Anwendung ähnlich ist.

Führe die Anleitung für 5 bis 10% der Anzahl der Schritte aus, die du für das vollständige Training auf einem v2-8- oder einem v3-8-TPU-Typ verwenden möchtest. Das Ergebnis zeigt Ihnen, wie lange es dauert, diese Anzahl von Schritten für dieses Modell auf jedem TPU-Typ auszuführen.

Da die Leistung von TPU-Typen linear skaliert wird, können Sie, wenn Sie wissen, wie lange es dauert, eine Aufgabe auf einem TPU-Typ v2-8 oder v3-8 auszuführen, schätzen, wie viel Zeit Sie damit reduzieren können, indem Sie das Modell auf einem größeren TPU-Typ mit mehr Chips oder Kernen ausführen.

Wenn beispielsweise ein v2-8-TPU-Typ 60 Minuten bis 10.000 Schritte dauert, sollte ein v2-32-Knoten etwa 15 Minuten dauern, um dieselbe Aufgabe auszuführen.

Wenn Sie die ungefähre Trainingszeit für Ihr Modell auf einigen verschiedenen TPU-Typen kennen, können Sie die VM/TPU-Kosten gegen die Trainingszeit abwägen, um das beste Preis-Leistungs-Verhältnis zu ermitteln.

Informationen zum Ermitteln der Kostenunterschiede zwischen den verschiedenen TPU-Typen für Cloud TPU und der zugehörigen Compute Engine-VM finden Sie auf der Seite mit den TPU-Preisen.

TPU-Typ angeben

Unabhängig davon, welches Framework Sie verwenden, geben Sie beim Veröffentlichen einer TPU den TPU-Typ v2 oder v3 an und verwenden dabei TensorFlow, PyTorch oder JAX. Der TPU-Typbefehl hängt davon ab, ob Sie TPU-VMs oder TPU-Knoten verwenden. Beispielbefehle werden unter TPUs verwalten angezeigt.

Weitere Informationen