Cloud TPU-Preise

TPU-Preise und -Kontingente sind in zwei Systeme unterteilt:

  • TPU-Preise für Einzelgeräte für einzelne TPU-Geräte, die entweder auf Anfrage oder als Auf-Abruf-Geräte verfügbar sind. Es ist nicht möglich, mehrere Einzelgerät-TPUs zu kombinieren, damit diese gemeinsam eine Arbeitslast übernehmen.
  • TPU Pod-Preise für Cluster von TPU-Geräten, die über dedizierte Hochgeschwindigkeitsnetzwerke miteinander verbunden sind. Diese TPU-Typen sind nur dann verfügbar, wenn Sie ein Kennenlernkontingent haben oder eine feste Zusicherung auf 1 oder 3 Jahre erwerben.

Gebühren für Cloud TPU fallen an, während Ihr TPU-Knoten sich in einem READY-Status befindet. Am Ende jedes Abrechnungszeitraums erhalten Sie eine Rechnung mit einer Auflistung der Nutzung und Kosten.

Auf der Seite mit den Richtlinien für Cloud TPU-Kontingente erfahren Sie, wie Sie ein Kontingent für TPU-Typen mit einzelnen Geräten anfordern.

Einzelgerätepreise

TPU-Typen für Einzelgeräte werden im Sekundentakt abgerechnet. Sie sind on demand oder auf Abruf verfügbar und werden nach der jeweiligen Preiskategorie abgerechnet.

TPU-Typen für Einzelgeräte sind unabhängige TPU-Geräte mit direkten Netzwerkverbindungen zu anderen TPU-Geräten in einem Google-Rechenzentrum. Wenn Ihre Arbeitslasten mehr TPU-Kerne und einen größeren Speicherpool benötigen, nutzen Sie stattdessen einen TPU Pod-Typ.

Eine TPU auf Abruf lässt sich jederzeit (vorzeitig) beenden, falls Cloud TPU die Ressourcen für eine andere Aufgabe benötigt. Die Gebühren für eine TPU auf Abruf sind allerdings viel niedriger als für eine normale TPU. Für TPUs auf Abruf, die in der ersten Minute nach dem Erstellen vorzeitig beendet werden, fallen keine Gebühren an.

Sie können Ihre TPU-Knoten mit den folgenden TPU-Typen für einzelne Geräte konfigurieren:

Preise für TPU Pod-Typen

TPU Pod-Typen bieten Zugriff auf mehrere TPU-Geräte, die alle über ein dediziertes Hochgeschwindigkeitsnetzwerk verbunden sind. Diese TPU-Typen bieten eine größere Rechenkapazität und einen größeren TPU-Speicherpool für einen einzelnen TPU-Knoten. Wenn Sie TPU Pod-Typen einsetzen wollen, fordern Sie so ein Kontingent an:

  • Fordern Sie Zugriff auf ein Kennenlernkontingent an, damit Sie die Leistung von TPU Pod-Typen testen können. TPU-Knoten, die Sie mit einem Kennenlernkontingent erstellen, werden im Sekundentakt abgerechnet, garantieren aber nicht dasselbe Dienstniveau wie On-Demand-TPU-Geräte oder Geräte, die Sie mit einem Zusicherungskontingent erstellen. Das Kennenlernkontingent gilt nur für einen begrenzten Zeitraum für Ihr Projekt.
  • Kaufen Sie eine Zusicherung für 1 Jahr oder 3 Jahre und erstellen Sie damit TPU-Knoten mit bis zu 2.048 Kernen. Zusicherungen werden nicht im Sekundentakt abgerechnet. Zusicherungen ermöglichen während der Vertragslaufzeit zu jeder Tageszeit eines laufenden Monats den Zugriff auf reservierte Kerne. Während der Laufzeit der Zusicherung wird eine monatliche Gebühr berechnet. Das gilt auch, wenn Sie keine TPU-Ressourcen nutzen.

Sie können Ihre TPU-Knoten mit den folgenden TPU-Typen konfigurieren:

Mehr über die Unterschiede zwischen verschiedenen TPU-Versionen und -Konfigurationen erfahren Sie in der Dokumentation zur TPU-Systemarchitektur.

Gesamtkosten für Zusicherungen für 1 Jahr und 3 Jahre

Die folgende Tabelle zeigt die Gesamtkosten für verschiedene TPU-Zusicherungen während ihrer gesamten Laufzeit:

Wenden Sie sich an einen Vertriebsmitarbeiter, um Zugriff auf TPU-Typen mit mehr als 8 Kernen zu erhalten.

TFRC-Programm (TensorFlow Research Cloud)

Wenn Sie beim TFRC-Programm angemeldet sind, erhalten Sie für eine begrenzte Zeit kostenlos Zugang zu Cloud TPU v2 und v3. Speziell für das TFRC-Programm fallen für Cloud TPU keine Gebühren an, solange Ihre TPU-Knoten in der Zone us-central1-f ausgeführt werden.

Preise für virtuelle Maschinen

Sie müssen eine virtuelle Maschine (VM) bereitstellen, um eine Verbindung zu einer TPU herzustellen. Die VM wird separat abgerechnet. Informationen zu Preisen für VM-Instanzen finden Sie unter Preise für Google Compute Engine.

Preisrechner

Mithilfe des Compute Engine-Preisrechners können Sie die geschätzten Kosten der Nutzung von Cloud TPU mit Compute Engine-VM-Instanzen berechnen.

Preisbeispiel

Im folgenden Beispiel wird erläutert, wie die Gesamtkosten für einen Trainingsjob berechnet werden, der TPU-Ressourcen und Compute Engine-Instanzen in der Region "US" verwendet.

Ein Forschungsunternehmen im Bereich maschinelles Lernen stellt eine virtuelle Maschine bereit. Dazu erstellt es eine Compute Engine-Instanz und wählt den Maschinentyp n1-standard-2 aus. Es erstellt außerdem eine TPU-Ressource. Sowohl die Compute Engine-Instanz als auch die TPU-Ressource werden 10 Stunden lang genutzt. Die Gesamtkosten des Trainingsjobs für das Forschungsunternehmen errechnen sich so:

  • Gesamtkosten für alle Compute Engine-Instanzen
  • Gesamtkosten für alle Cloud TPU-Ressourcen
Ressource Preis pro Maschine und Stunde (in $) Anzahl Maschinen Anzahl abgerechneter Stunden Gesamtkosten der Ressource Gesamtkosten des Trainingsjobs
Compute Engine-
n1-standard-2 Instanz
0,095 $ 1 10 0,95 $
Cloud TPU-Ressource 4,50 $ 1 10 45,00 $
45,95 $

Preisbeispiel für die Nutzung einer TPU auf Abruf

Im folgenden Beispiel werden dieselben Ressourcen und derselbe Zeitraum wie oben zugrunde gelegt. Allerdings entscheidet sich das Forschungsunternehmen hier, eine TPU auf Abruf zu verwenden, um Kosten zu sparen. Die Gebühr für die TPU v2 auf Abruf beträgt im Gegensatz zu 4,50 $ für eine normale TPU nur 1,35 $ pro Stunde.

Ressource Preis pro Maschine und Stunde (in $) Anzahl Maschinen Anzahl abgerechneter Stunden Gesamtkosten der Ressource Gesamtkosten des Trainingsjobs
Compute Engine-
n1-standard-2 Instanz
0,095 $ 1 10 0,95 $
TPU auf Abruf 1,35 $ 1 10 13,50 $
14,45 $

Weitere Informationen