Preise sind in US-Dollar ($) angegeben. Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Die Kosten für Vertex AI bleiben dieselben wie für die vorherigen Produkte AI Platform und AutoML, die durch Vertex AI abgelöst werden, mit folgenden Ausnahmen:
Vertex AI bietet außerdem weitere Möglichkeiten zur Kostenoptimierung, darunter die folgenden:
Die Preise für generative KI in Vertex AI finden Sie unter Preise für generative KI in Vertex AI.
Bei AutoML-Modellen in Vertex AI werden drei Hauptaktivitäten abgerechnet:
Vertex AI verwendet vordefinierte Maschinenkonfigurationen für Vertex AutoML-Modelle. Der Stundensatz für diese Aktivitäten entspricht der Ressourcennutzung.
Die erforderliche Trainingszeit des Modells hängt von Umfang und Komplexität der Trainingsdaten ab. Modelle müssen bereitgestellt werden, bevor sie Online-Vorhersagen oder Online-Erklärungen liefern können.
Es wird jedes Modell abgerechnet, das an einem Endpunkt eingesetzt wird, auch wenn keine Vorhersagen getroffen wurden. Wenn Sie weitere Kosten vermeiden möchten, müssen Sie die Bereitstellung des Modells aufheben. Modelle, die nicht bereitgestellt wurden oder nicht bereitgestellt werden konnten, werden nicht berechnet.
Dabei bezahlen Sie nur für die aufgewendeten Computerstunden. Wenn das Training aus einem anderen Grund als durch einen vom Nutzer veranlassten Abbruch fehlschlägt, wird Ihnen die Zeit nicht in Rechnung gestellt. Wenn Sie den Vorgang selbst abbrechen, wird Ihnen die Trainingszeit jedoch berechnet.
Wählen Sie unten einen Modelltyp für Preisinformationen aus.
Bilddaten
Aktion | Preis (Klassifizierung) (USD) | Preis (Objekterkennung) (in $) |
|---|---|---|
Training | 3,465 $ / 1 hour | 3,465 $ / 1 hour |
Training (Edge-On-Device-Modell) | 18,00 $ / 1 hour | 18,00 $ / 1 hour |
Bereitstellung und Online-Vorhersage | 1,375 $ / 1 hour | 2,002 $ / 1 hour |
Batchvorhersage | 2,222 $ / 1 hour | 2,222 $ / 1 hour |
Tabellarische Daten
Aktion | Preis pro Knotenstunde für Klassifizierung/Regression | Preis für Prognose |
|---|---|---|
Training | 21,252 $ / 1 hour | Weitere Informationen unter Vertex AI Forecast |
Inferenz | Gleicher Preis wie für Inferenz bei benutzerdefiniert trainierten Modellen Vertex AI führt Batch-Inferenz mit 40 n1-highmem-8-Maschinen aus. | Weitere Informationen unter Vertex AI Forecast |
Kosten für Inferenz in Vertex Explainable AI
Die mit Vertex Explainable AI verbundenen Berechnungen werden zum gleichen Satz wie die Inferenz berechnet. Die Verarbeitung von Erklärungen dauert jedoch länger als normale Inferenzvorgänge. Wenn Vertex Explainable AI also viel mit Autoscaling genutzt wird, kann das dazu führen, dass mehr Knoten gestartet werden und so die Inferenzkosten steigen.
AutoML
Phase | Preise |
|---|---|
Vorhersage | 0 count to 1,000,000 count 0,20 $ / 1,000 count, per 1 month / account 1,000,000 count to 50,000,000 count 0,10 $ / 1,000 count, per 1 month / account 50,000,000 count and above 0,02 $ / 1,000 count, per 1 month / account |
Training | 21,252 $ / 1 hour |
Explainable AI | Erklärbarkeit unter Verwendung von Shapley-Werten. Weitere Informationen in der Preisübersicht zu Inferenz und Erklärung mit Vertex AI. |
*Ein Prognosedatenpunkt ist ein Zeitpunkt im Prognosehorizont. Mit Detaillierungsgrad „täglich“ liegen in einem 7-Tage-Horizont beispielsweise 7 Punkte für jede Zeitreihe.
ARIMA+
Phase | Preise |
|---|---|
Vorhersage | 5,00 $ / 1,000 count |
Training | 250$pro TB × Anzahl der Kandidatenmodelle × Anzahl der Backtesting-Fenster* |
Explainable AI | Erklärbarkeit durch Zeitreihenzerlegung verursacht keine zusätzlichen Kosten. Erklärbarkeit unter Verwendung von Shapley-Werten wird nicht unterstützt. |
Weitere Informationen finden Sie in der Preisübersicht zu BigQuery ML. Für jeden Trainings- und Vorhersagejob fallen die Kosten für eine verwaltete Pipelineausführung an, wie unter Vertex AI – Preise beschrieben.
*Für jeden Zeitraum des Testsatzes wird ein Backtesting-Fenster erstellt. Die verwendete AUTO_ARIMA_MAX_ORDER bestimmt die Anzahl der Kandidatenmodelle. Sie liegt zwischen 6 und 42 für Modelle mit mehreren Zeitreihen.
Schulung
Die folgenden Tabellen enthalten die geschätzten Preise pro Stunde für verschiedene Trainingskonfigurationen. Sie können sich für eine benutzerdefinierte Konfiguration ausgewählter Maschinentypen entscheiden. Addieren Sie die Kosten der verwendeten virtuellen Maschinen, um den Preis zu ermitteln.
Wenn Sie dagegen Compute Engine-Maschinentypen verwenden und diese um Beschleuniger ergänzen, werden die Kosten dafür getrennt abgerechnet. Multiplizieren Sie die Preise für Beschleuniger aus der nachstehenden Tabelle mit der Anzahl der Maschinenstunden je verwendetem Beschleuniger der einzelnen Typen, um den Preis zu ermitteln.
Maschinentypen
Sie können Spot-VMs mit benutzerdefiniertem Vertex AI-Training verwenden. Spot-VMs werden gemäß der Preisliste für Spot-VMs in Compute Engine abgerechnet. Zusätzlich zur Nutzung der Infrastruktur fallen die in den nachstehenden Tabellen aufgeführten Gebühren für die Verwaltung von benutzerdefiniertem Training in Vertex AI an.
Sie können Compute Engine-Reservierungen mit benutzerdefiniertem Vertex AI-Training verwenden. Wenn Sie Compute Engine-Reservierungen verwenden, werden Ihnen die Kosten gemäß den Compute Engine-Preisen in Rechnung gestellt, einschließlich aller anwendbaren Rabatte für zugesicherte Nutzung (Committed Use Discounts, CUDs). Zusätzlich zur Nutzung der Infrastruktur fallen die in den nachstehenden Tabellen aufgeführten Gebühren für die Verwaltung von benutzerdefiniertem Training in Vertex AI an.
Maschinentyp | Preis (in $) |
|---|---|
g4-standard-48 | 5,17508763 $ / 1 hour |
g4-standard-96 | 10,35017526 $ / 1 hour |
g4-standard-192 | 20,70035052 $ / 1 hour |
g4-standard-384 | 41,40070104 $ / 1 hour |
n1-standard-4 | 0,21849885 $ / 1 hour |
n1-standard-8 | 0,4369977 $ / 1 hour |
n1-standard-16 | 0,8739954 $ / 1 hour |
n1-standard-32 | 1,7479908 $ / 1 hour |
n1-standard-64 | 3,4959816 $ / 1 hour |
n1-standard-96 | 5,2439724 $ / 1 hour |
n1-highmem-2 | 0,13604845 $ / 1 hour |
n1-highmem-4 | 0,2720969 $ / 1 hour |
n1-highmem-8 | 0,5441938 $ / 1 hour |
n1-highmem-16 | 1,0883876 $ / 1 hour |
n1-highmem-32 | 2,1767752 $ / 1 hour |
n1-highmem-64 | 4,3535504 $ / 1 hour |
n1-highmem-96 | 6,5303256 $ / 1 hour |
n1-highcpu-16 | 0,65180712 $ / 1 hour |
n1-highcpu-32 | 1,30361424 $ / 1 hour |
n1-highcpu-64 | 2,60722848 $ / 1 hour |
n1-highcpu-96 | 3,91084272 $ / 1 hour |
a2-highgpu-1g* | 4,425248914 $ / 1 hour |
a2-highgpu-2g* | 8,850497829 $ / 1 hour |
a2-highgpu-4g* | 17,700995658 $ / 1 hour |
a2-highgpu-8g* | 35,401991315 $ / 1 hour |
a2-megagpu-16g* | 65,707278915 $ / 1 hour |
a3-highgpu-8g* | 101,007352 $ / 1 hour |
a3-megagpu-8g* | 106,0464232 $ / 1 hour |
a3-ultragpu-8g* | 99,7739296 $ / 1 hour |
a4-highgpu-8g* | 148,212 $ / 1 hour |
e2-standard-4 | 0,154126276 $ / 1 hour |
e2-standard-8 | 0,308252552 $ / 1 hour |
e2-standard-16 | 0,616505104 $ / 1 hour |
e2-standard-32 | 1,233010208 $ / 1 hour |
e2-highmem-2 | 0,103959618 $ / 1 hour |
e2-highmem-4 | 0,207919236 $ / 1 hour |
e2-highmem-8 | 0,415838472 $ / 1 hour |
e2-highmem-16 | 0,831676944 $ / 1 hour |
e2-highcpu-16 | 0,455126224 $ / 1 hour |
e2-highcpu-32 | 0,910252448 $ / 1 hour |
n2-standard-4 | 0,2233714 $ / 1 hour |
n2-standard-8 | 0,4467428 $ / 1 hour |
n2-standard-16 | 0,8934856 $ / 1 hour |
n2-standard-32 | 1,7869712 $ / 1 hour |
n2-standard-48 | 2,6804568 $ / 1 hour |
n2-standard-64 | 3,5739424 $ / 1 hour |
n2-standard-80 | 4,467428 $ / 1 hour |
n2-highmem-2 | 0,1506661 $ / 1 hour |
n2-highmem-4 | 0,3013322 $ / 1 hour |
cloud-tpu | Die Preise richten sich nach dem Beschleunigertyp. Siehe „Beschleuniger“. |
n2-highmem-8 | 0,6026644 $ / 1 hour |
n2-highmem-16 | 1,2053288 $ / 1 hour |
n2-highmem-32 | 2,4106576 $ / 1 hour |
n2-highmem-48 | 3,6159864 $ / 1 hour |
n2-highmem-64 | 4,8213152 $ / 1 hour |
n2-highmem-80 | 6,026644 $ / 1 hour |
n2-highcpu-16 | 0,6596032 $ / 1 hour |
n2-highcpu-32 | 1,3192064 $ / 1 hour |
n2-highcpu-48 | 1,9788096 $ / 1 hour |
n2-highcpu-64 | 2,6384128 $ / 1 hour |
n2-highcpu-80 | 3,298016 $ / 1 hour |
c2-standard-4 | 0,2401292 $ / 1 hour |
c2-standard-8 | 0,4802584 $ / 1 hour |
c2-standard-16 | 0,9605168 $ / 1 hour |
c2-standard-30 | 1,800969 $ / 1 hour |
c2-standard-60 | 3,601938 $ / 1 hour |
m1-ultramem-40 | 7,237065 $ / 1 hour |
m1-ultramem-80 | 14,47413 $ / 1 hour |
m1-ultramem-160 | 28,94826 $ / 1 hour |
m1-megamem-96 | 12,249984 $ / 1 hour |
*Dieser Betrag beinhaltet den GPU-Preis, da dieser Instanztyp immer eine feste Anzahl von GPU-Beschleunigern erfordert.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Beschleuniger
Maschinentyp | Preis (in $) | Verwaltungsgebühr für Vertex |
|---|---|---|
NVIDIA_TESLA_A100 | 2,933908 $ / 1 hour | 0,4400862 $ / 1 hour |
NVIDIA_TESLA_A100_80GB | 3,92808 $ / 1 hour | 0,589212 $ / 1 hour |
NVIDIA_H100_80GB | 9,79655057 $ / 1 hour | 1,4694826 $ / 1 hour |
NVIDIA_H200_141GB | 10,708501 $ / 1 hour | Nicht verfügbar |
NVIDIA_H100_MEGA_80GB | 11,8959171 $ / 1 hour | Nicht verfügbar |
NVIDIA_TESLA_L4 | 0,644046276 $ / 1 hour | Nicht verfügbar |
NVIDIA_TESLA_P4 | 0,69 $ / 1 hour | Nicht verfügbar |
NVIDIA_TESLA_P100 | 1,679 $ / 1 hour | Nicht verfügbar |
NVIDIA_TESLA_T4 | 0,4025 $ / 1 hour | Nicht verfügbar |
NVIDIA_TESLA_V100 | 2,852 $ / 1 hour | Nicht verfügbar |
TPU_V2 Single (8 Kerne) | 5,175 $ / 1 hour | Nicht verfügbar |
TPU_V2 Pod (32 Kerne)* | 27,60 $ / 1 hour | Nicht verfügbar |
TPU_V3 Single (8 Kerne) | 9,20 $ / 1 hour | Nicht verfügbar |
TPU_V3 Pod (32 Kerne)* | 36,80 $ / 1 hour | Nicht verfügbar |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
* Der Preis für das Training mit einem Cloud TPU Pod richtet sich nach der Anzahl der Kerne im Pod. Die Anzahl der Kerne in einem Pod ist immer ein Vielfaches von 32. Um den Preis für ein Training auf einem Pod mit mehr als 32 Kernen zu ermitteln, nehmen Sie den Preis für einen Pod mit 32 Kernen und multiplizieren ihn mit der Anzahl der Kerne, geteilt durch 32. Der Preis für einen Pod mit 128 Kernen beträgt zum Beispiel (Preis für einen Pod mit 32 Kernen) × (128/32). Informationen darüber, welche Cloud TPU Pods für eine bestimmte Region verfügbar sind, finden Sie unter Systemarchitektur in der Cloud TPU-Dokumentation.
Laufwerke
Maschinentyp | Preis (in $) |
|---|---|
pd-standard | 0,000063014 $ / 1 gibibyte hour |
pd-ssd | 0,000267808 $ / 1 gibibyte hour |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Die Kosten für das Training Ihrer Modelle fallen ab dem Zeitpunkt der Bereitstellung von Ressourcen für einen Job bis zum Abschluss des Jobs an.
Warnung: Ihre Trainingsjobs sind durch die Kontingentrichtlinie für Vertex AI begrenzt. Wenn Sie für Ihre ersten Trainingsjobs einen sehr leistungsstarken Verarbeitungscluster auswählen, ist die Wahrscheinlichkeit hoch, dass Sie damit Ihr Kontingent überschreiten.
Skalierungsstufen für vordefinierte Konfigurationen (AI Platform Training)
Sie können den Typ des Verarbeitungsclusters individuell festlegen, der beim Training Ihres Modells verwendet werden soll. Der einfachste Weg ist dabei die Auswahl des Typs aus vordefinierten Konfigurationen, die als Skalierungsstufen bezeichnet werden. Weitere Informationen finden Sie unter Skalierungsstufen.
Maschinentypen für benutzerdefinierte Konfigurationen
Wenn Sie Vertex AI verwenden oder „CUSTOM“ als Skalierungsstufe für AI Platform Training wählen, haben Sie die Kontrolle über die Anzahl und den Typ der virtuellen Maschinen, die für die Master, Worker und Parameter-Server des Clusters verwendet werden. Weitere Informationen zu Maschinentypen für Vertex AI und Maschinentypen für AI Platform Training.
Die Kosten für das Training mit einem benutzerdefinierten Verarbeitungscluster entsprechen der Summe aller von Ihnen angegebenen Maschinen. Die Abrechnung erfolgt für die gesamte Laufzeit des Jobs und nicht nur für die aktive Verarbeitungszeit der einzelnen Maschinen.
Bei modellbasierten Messwerten werden nur die Vorhersagekosten für das zugrunde liegende Autorater-Modell berechnet. Die Abrechnung erfolgt auf der Grundlage der Eingabetokens, die Sie in Ihrem Bewertungs-Dataset bereitstellen, und der Ausgabe des Autograders.
Der Gen AI Evaluation Service ist allgemein verfügbar (GA). Die Preisänderung ist am 14. April 2025 in Kraft getreten.
Metrisch | Preise |
|---|---|
Punktweise | Standardmodell für die automatische Bewertung Gemini 2.0 Flash |
Paarweise | Standardmodell für die automatische Bewertung Gemini 2.0 Flash |
Berechnungsbasierte Messwerte werden mit 0,00003 $pro 1.000 Zeichen für die Eingabe und 0,00009 $pro 1.000 Zeichen für die Ausgabe abgerechnet. Sie werden als „Automatische Messwerte in SKU“ bezeichnet.
Name des Messwerts | Typ |
|---|---|
Genaue Übereinstimmung | Berechnungsbasiert |
Bleu | Berechnungsbasiert |
Rouge | Berechnungsbasiert |
Toolaufruf gültig | Berechnungsbasiert |
Tool-Namen-Abgleich | Berechnungsbasiert |
Übereinstimmung mit dem Parameterschlüssel des Tools | Berechnungsbasiert |
Tool Parameter KV Match | Berechnungsbasiert |
Preise sind in US-Dollar ($) angegeben. Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Legacy-Modellmesswerte werden mit 0,005 $pro 1.000 Zeichen für die Eingabe und 0,015 $pro 1.000 Zeichen für die Ausgabe berechnet.
Name des Messwerts | Typ |
|---|---|
Kohärenz | Punktweise |
Sprachkompetenz | Punktweise |
Auftragsausführung | Punktweise |
Sicherheit | Punktweise |
Fundierung | Punktweise |
Qualität der Zusammenfassung | Punktweise |
Hilfreichkeit der Zusammenfassung | Punktweise |
Ausführlichkeit der Zusammenfassung | Punktweise |
Qualität der Fragebeantwortung | Punktweise |
Relevanz der Fragebeantwortung | Punktweise |
Hilfreichkeit von Antworten | Punktweise |
Richtigkeit der Antworten | Punktweise |
Qualität der paarweisen Zusammenfassung | Paarweise |
Qualität der Beantwortung von paarweisen Fragen | Paarweise |
Preise sind in US-Dollar ($) angegeben. Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Vertex AI Agent Engine ist eine Reihe von Diensten, mit denen Entwickler Agenten in der Produktion skalieren können. Heute werden die Preise für die Agent Engine-Laufzeit festgelegt. Die Preise für andere Agent Engine-Dienste wie Sitzungen, Memory Bank und Codeausführung werden zu einem späteren Zeitpunkt veröffentlicht (derzeit sind sie kostenlos nutzbar).
Die Preise basieren auf den von den Agents verwendeten Compute-Ressourcen (vCPU-Stunden) und Speicherressourcen (GiB-Stunden), die in der Agent Engine-Laufzeitumgebung bereitgestellt werden. Die Abrechnung erfolgt auf die nächste Sekunde der Nutzung. Die Zeit, in der ein Agent nicht aktiv ist, wird nicht in Rechnung gestellt.
Um Ihnen den Einstieg in die Laufzeit zu erleichtern, bieten wir eine monatliche kostenlose Stufe an.
Sobald Ihre monatliche Nutzung das kostenlose Kontingent übersteigt, beginnt die Abrechnung zu den unten aufgeführten Preisen.
Ressource | Preis (in $) |
|---|---|
vCPU | 0 hour to 50 hour 0,00 $ (Free) / 3,600 second, per 1 month / project 50 hour and above 0,0994 $ / 3,600 second, per 1 month / project |
RAM | 0 gigabyte hour to 100 gigabyte hour 0,00 $ (Free) / 3,600 gibibyte second, per 1 month / project 100 gigabyte hour and above 0,0105 $ / 3,600 gibibyte second, per 1 month / project |
Seit dem 6. November 2025 gilt für die Agent Engine-Laufzeit ein vereinfachtes Preismodell mit einem einheitlichen Tarif, der in allen Regionen angewendet wird, in denen die Agent Engine-Laufzeit verfügbar ist.
Schulung
Die folgenden Tabellen enthalten die geschätzten Preise pro Stunde für verschiedene Trainingskonfigurationen. Sie können sich für eine benutzerdefinierte Konfiguration ausgewählter Maschinentypen entscheiden. Addieren Sie die Kosten der verwendeten virtuellen Maschinen, um den Preis zu ermitteln.
Wenn Sie dagegen Compute Engine-Maschinentypen verwenden und diese um Beschleuniger ergänzen, werden die Kosten dafür getrennt abgerechnet. Multiplizieren Sie die Preise für Beschleuniger aus der nachstehenden Tabelle mit der Anzahl der Maschinenstunden je verwendetem Beschleuniger der einzelnen Typen, um den Preis zu ermitteln.
Maschinentypen
Maschinentyp | Preis (in $) |
|---|---|
n1-standard-4 | 0,2279988 $ / 1 hour |
n1-standard-8 | 0,4559976 $ / 1 hour |
n1-standard-16 | 0,9119952 $ / 1 hour |
n1-standard-32 | 1,8239904 $ / 1 hour |
n1-standard-64 | 3,6479808 $ / 1 hour |
n1-standard-96 | 5,4719712 $ / 1 hour |
n1-highmem-2 | 0,1419636 $ / 1 hour |
n1-highmem-4 | 0,2839272 $ / 1 hour |
n1-highmem-8 | 0,5678544 $ / 1 hour |
n1-highmem-16 | 1,1357088 $ / 1 hour |
n1-highmem-32 | 2,2714176 $ / 1 hour |
n1-highmem-64 | 4,5428352 $ / 1 hour |
n1-highmem-96 | 6,8142528 $ / 1 hour |
n1-highcpu-16 | 0,68014656 $ / 1 hour |
n1-highcpu-32 | 1,36029312 $ / 1 hour |
n1-highcpu-64 | 2,72058624 $ / 1 hour |
n1-highcpu-96 | 4,08087936 $ / 1 hour |
a2-highgpu-1g* | 4,408062 $ / 1 hour |
a2-highgpu-2g* | 8,816124 $ / 1 hour |
a2-highgpu-4g* | 17,632248 $ / 1 hour |
a2-highgpu-8g* | 35,264496 $ / 1 hour |
a2-highgpu-16g* | 70,528992 $ / 1 hour |
a3-highgpu-8g* | 105,39898088 $ / 1 hour |
a3-megagpu-8g* | 110,65714224 $ / 1 hour |
a4-highgpu-8g* | 148,212 $ / 1 hour |
e2-standard-4 | 0,16082748 $ / 1 hour |
e2-standard-4 | 0,32165496 $ / 1 hour |
e2-standard-16 | 0,64330992 $ / 1 hour |
e2-standard-32 | 1,28661984 $ / 1 hour |
e2-highmem-2 | 0,10847966 $ / 1 hour |
e2-highmem-4 | 0,21695932 $ / 1 hour |
e2-highmem-8 | 0,43391864 $ / 1 hour |
e2-highmem-16 | 0,86783728 $ / 1 hour |
e2-highcpu-16 | 0,4749144 $ / 1 hour |
e2-highcpu-32 | 0,9498288 $ / 1 hour |
n2-standard-4 | 0,2330832 $ / 1 hour |
n2-standard-8 | 0,4661664 $ / 1 hour |
n2-standard-16 | 0,9323328 $ / 1 hour |
n2-standard-32 | 1,8646656 $ / 1 hour |
n2-standard-48 | 2,7969984 $ / 1 hour |
n2-standard-64 | 3,7293312 $ / 1 hour |
n2-standard-80 | 4,661664 $ / 1 hour |
n2-highmem-2 | 0,1572168 $ / 1 hour |
n2-highmem-4 | 0,3144336 $ / 1 hour |
n2-highmem-8 | 0,6288672 $ / 1 hour |
n2-highmem-16 | 1,2577344 $ / 1 hour |
n2-highmem-32 | 2,5154688 $ / 1 hour |
n2-highmem-48 | 3,7732032 $ / 1 hour |
n2-highmem-64 | 5,0309376 $ / 1 hour |
n2-highmem-80 | 6,288672 $ / 1 hour |
n2-highcpu-16 | 0,6882816 $ / 1 hour |
n2-highcpu-32 | 1,3765632 $ / 1 hour |
n2-highcpu-48 | 2,0648448 $ / 1 hour |
n2-highcpu-64 | 2,7531264 $ / 1 hour |
n2-highcpu-80 | 3,441408 $ / 1 hour |
c2-standard-4 | 0,2505696 $ / 1 hour |
c2-standard-8 | 0,5011392 $ / 1 hour |
c2-standard-16 | 1,0022784 $ / 1 hour |
c2-standard-30 | 1,879272 $ / 1 hour |
c2-standard-60 | 3,758544 $ / 1 hour |
m1-ultramem-40 | 7,55172 $ / 1 hour |
m1-ultramem-80 | 15,10344 $ / 1 hour |
m1-ultramem-160 | 30,20688 $ / 1 hour |
m1-megamem-96 | 12,782592 $ / 1 hour |
cloud-tpu | Die Preise richten sich nach dem Beschleunigertyp. Siehe „Beschleuniger“. |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Beschleuniger
GPU-Typ | Preis (in $) |
|---|---|
NVIDIA_TESLA_A100 | 3,5206896 $ / 1 hour |
NVIDIA_TESLA_A100_80GB | 4,517292 $ / 1 hour |
NVIDIA_H100_80GB | 11,75586073 $ / 1 hour |
NVIDIA_TESLA_P4 | 0,72 $ / 1 hour |
NVIDIA_TESLA_P100 | 1,752 $ / 1 hour |
NVIDIA_TESLA_T4 | 0,42 $ / 1 hour |
NVIDIA_TESLA_V100 | 2,976 $ / 1 hour |
TPU_V2 Single (8 Kerne) | 5,40 $ / 1 hour |
TPU_V2 Pod (32 Kerne)* | 28,80 $ / 1 hour |
TPU_V3 Single (8 Kerne) | 9,60 $ / 1 hour |
TPU_V3 Pod (32 Kerne)* | 38,40 $ / 1 hour |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
* Der Preis für das Training mit einem Cloud TPU Pod richtet sich nach der Anzahl der Kerne im Pod. Die Anzahl der Kerne in einem Pod ist immer ein Vielfaches von 32. Um den Preis für ein Training auf einem Pod mit mehr als 32 Kernen zu ermitteln, nehmen Sie den Preis für einen Pod mit 32 Kernen und multiplizieren ihn mit der Anzahl der Kerne, geteilt durch 32. Der Preis für einen Pod mit 128 Kernen beträgt zum Beispiel (Preis für einen Pod mit 32 Kernen) × (128/32). Informationen darüber, welche Cloud TPU Pods für eine bestimmte Region verfügbar sind, finden Sie unter Systemarchitektur in der Cloud TPU-Dokumentation.
Laufwerke
Laufwerkstyp | Preis (in $) |
|---|---|
pd-standard | 0,000065753 $ / 1 gibibyte hour |
pd-ssd | 0,000279452 $ / 1 gibibyte hour |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Die Kosten für das Training Ihrer Modelle fallen ab dem Zeitpunkt der Bereitstellung von Ressourcen für einen Job bis zum Abschluss des Jobs an.
Warnung: Ihre Trainingsjobs sind durch die Kontingentrichtlinie für Vertex AI begrenzt. Wenn Sie für Ihre ersten Trainingsjobs einen sehr leistungsstarken Verarbeitungscluster auswählen, ist die Wahrscheinlichkeit hoch, dass Sie damit Ihr Kontingent überschreiten.
Die folgenden Tabellen enthalten die Preise für die Batch-Vorhersage, die Online-Vorhersage und die Online-Erklärung pro Knotenstunde. Eine Knotenstunde ist die Zeit, die ein virtueller Computer mit der Ausführung Ihres Vorhersagejobs oder mit dem Warten in einem aktiven Zustand (Endpunkt mit einem oder mehreren bereitgestellten Modellen) verbringt, um Vorhersage- oder Erklärungsanfragen zu verarbeiten.
Sie können Spot-VMs mit Vertex AI Inference verwenden. Spot-VMs werden gemäß der Preisliste für Spot-VMs in Compute Engine abgerechnet. Zusätzlich zur Nutzung der Infrastruktur fallen die in den nachstehenden Tabellen aufgeführten Gebühren für die Verwaltung von Vertex AI Inference an.
Sie können Compute Engine-Reservierungen mit Vertex AI Inference verwenden. Wenn Sie Compute Engine-Reservierungen verwenden, werden Ihnen die Kosten gemäß den Compute Engine-Preisen in Rechnung gestellt, einschließlich aller anwendbaren Rabatte für zugesicherte Nutzung (Committed Use Discounts, CUDs). Zusätzlich zur Nutzung der Infrastruktur fallen die in den nachstehenden Tabellen aufgeführten Gebühren für die Verwaltung von Vertex AI Inference an.
E2-Serie
Maschinentyp | Preis (in $) |
|---|---|
e2-standard-2 | 0,0770564 $ / 1 hour |
e2-standard-4 | 0,1541128 $ / 1 hour |
e2-standard-8 | 0,3082256 $ / 1 hour |
e2-standard-16 | 0,6164512 $ / 1 hour |
e2-standard-32 | 1,2329024 $ / 1 hour |
e2-highmem-2 | 0,1039476 $ / 1 hour |
e2-highmem-4 | 0,2078952 $ / 1 hour |
e2-highmem-8 | 0,4157904 $ / 1 hour |
e2-highmem-16 | 0,8315808 $ / 1 hour |
e2-highcpu-2 | 0,056888 $ / 1 hour |
e2-highcpu-4 | 0,113776 $ / 1 hour |
e2-highcpu-8 | 0,227552 $ / 1 hour |
e2-highcpu-16 | 0,455104 $ / 1 hour |
e2-highcpu-32 | 0,910208 $ / 1 hour |
N1-Serie
Maschinentyp | Preis (in $) |
|---|---|
n1-standard-2 | 0,1095 $ / 1 hour |
n1-standard-4 | 0,219 $ / 1 hour |
n1-standard-8 | 0,438 $ / 1 hour |
n1-standard-16 | 0,876 $ / 1 hour |
n1-standard-32 | 1,752 $ / 1 hour |
n1-highmem-2 | 0,137 $ / 1 hour |
n1-highmem-4 | 0,274 $ / 1 hour |
n1-highmem-8 | 0,548 $ / 1 hour |
n1-highmem-16 | 1,096 $ / 1 hour |
n1-highcpu-2 | 0,081 $ / 1 hour |
n1-highcpu-4 | 0,162 $ / 1 hour |
n1-highcpu-8 | 0,324 $ / 1 hour |
n1-highcpu-16 | 0,648 $ / 1 hour |
n1-highcpu-32 | 1,296 $ / 1 hour |
N2-Serie
Maschinentyp | Preis (in $) |
|---|---|
n2-standard-2 | 0,1116854 $ / 1 hour |
n2-standard-4 | 0,2233708 $ / 1 hour |
n2-standard-8 | 0,4467416 $ / 1 hour |
n2-standard-16 | 0,8934832 $ / 1 hour |
n2-standard-32 | 1,7869664 $ / 1 hour |
n2-highmem-2 | 0,1506654 $ / 1 hour |
n2-highmem-4 | 0,3013308 $ / 1 hour |
n2-highmem-8 | 0,6026616 $ / 1 hour |
n2-highmem-16 | 1,2053232 $ / 1 hour |
n2-highcpu-2 | 0,0824504 $ / 1 hour |
n2-highcpu-4 | 0,1649008 $ / 1 hour |
n2-highcpu-8 | 0,3298016 $ / 1 hour |
n2-highcpu-16 | 0,6596032 $ / 1 hour |
n2-highcpu-32 | 1,3192064 $ / 1 hour |
N2D-Serie
Maschinentyp | Preis (in $) |
|---|---|
n2d-standard-2 | 0,0971658 $ / 1 hour |
n2d-standard-4 | 0,1943316 $ / 1 hour |
n2d-standard-8 | 0,3886632 $ / 1 hour |
n2d-standard-16 | 0,7773264 $ / 1 hour |
n2d-standard-32 | 1,5546528 $ / 1 hour |
n2d-highmem-2 | 0,131077 $ / 1 hour |
n2d-highmem-4 | 0,262154 $ / 1 hour |
n2d-highmem-8 | 0,524308 $ / 1 hour |
n2d-highmem-16 | 1,048616 $ / 1 hour |
n2d-highcpu-2 | 0,0717324 $ / 1 hour |
n2d-highcpu-4 | 0,1434648 $ / 1 hour |
n2d-highcpu-8 | 0,2869296 $ / 1 hour |
n2d-highcpu-16 | 0,5738592 $ / 1 hour |
n2d-highcpu-32 | 1,1477184 $ / 1 hour |
C2-Serie
Maschinentyp | Preis (in $) |
|---|---|
c2-standard-4 | 0,240028 $ / 1 hour |
c2-standard-8 | 0,480056 $ / 1 hour |
c2-standard-16 | 0,960112 $ / 1 hour |
c2-standard-30 | 1,80021 $ / 1 hour |
c2-standard-60 | 3,60042 $ / 1 hour |
C2D-Serie
Maschinentyp | Preis (in $) |
|---|---|
c2d-standard-2 | 0,1044172 $ / 1 hour |
c2d-standard-4 | 0,2088344 $ / 1 hour |
c2d-standard-8 | 0,4176688 $ / 1 hour |
c2d-standard-16 | 0,8353376 $ / 1 hour |
c2d-standard-32 | 1,6706752 $ / 1 hour |
c2d-standard-56 | 2,9236816 $ / 1 hour |
c2d-standard-112 | 5,8473632 $ / 1 hour |
c2d-highmem-2 | 0,1408396 $ / 1 hour |
c2d-highmem-4 | 0,2816792 $ / 1 hour |
c2d-highmem-8 | 0,5633584 $ / 1 hour |
c2d-highmem-16 | 1,1267168 $ / 1 hour |
c2d-highmem-32 | 2,2534336 $ / 1 hour |
c2d-highmem-56 | 3,9435088 $ / 1 hour |
c2d-highmem-112 | 7,8870176 $ / 1 hour |
c2d-highcpu-2 | 0,086206 $ / 1 hour |
c2d-highcpu-4 | 0,172412 $ / 1 hour |
c2d-highcpu-8 | 0,344824 $ / 1 hour |
c2d-highcpu-16 | 0,689648 $ / 1 hour |
c2d-highcpu-32 | 1,379296 $ / 1 hour |
c2d-highcpu-56 | 2,413768 $ / 1 hour |
c2d-highcpu-112 | 4,827536 $ / 1 hour |
C3-Serie
Maschinentyp | Preis (in $) |
|---|---|
c3-highcpu-4 | 0,19824 $ / 1 hour |
c3-highcpu-8 | 0,39648 $ / 1 hour |
c3-highcpu-22 | 1,09032 $ / 1 hour |
c3-highcpu-44 | 2,18064 $ / 1 hour |
c3-highcpu-88 | 4,36128 $ / 1 hour |
c3-highcpu-176 | 8,72256 $ / 1 hour |
A2-Serie
Maschinentyp | Preis (in $) |
|---|---|
a2-highgpu-1g | 4,2244949 $ / 1 hour |
a2-highgpu-2g | 8,4489898 $ / 1 hour |
a2-highgpu-4g | 16,8979796 $ / 1 hour |
a2-highgpu-8g | 33,7959592 $ / 1 hour |
a2-megagpu-16g | 64,1020592 $ / 1 hour |
a2-ultragpu-1g | 5,7818474 $ / 1 hour |
a2-ultragpu-2g | 11,5636948 $ / 1 hour |
a2-ultragpu-4g | 23,1273896 $ / 1 hour |
a2-ultragpu-8g | 46,2547792 $ / 1 hour |
Bei der Nutzung von reservierter oder Spot-Kapazität wird die Abrechnung auf zwei SKUs aufgeteilt: die GCE-SKU mit dem Label „vertex-ai-online-prediction“ und die Vertex AI-Verwaltungsgebühr-SKU. So können Sie Ihre Rabatte für zugesicherte Nutzung (Committed Use Discounts, CUDs) in Vertex AI nutzen.
A3-Serie
Maschinentyp | Preis (in $) |
|---|---|
a3-ultragpu-8g | 96,015616 $ / 1 hour |
a3-megagpu-8g | 106,65474 $ / 1 hour |
Bei der Nutzung von reservierter oder Spot-Kapazität wird die Abrechnung auf zwei SKUs aufgeteilt: die GCE-SKU mit dem Label „vertex-ai-online-prediction“ und die Vertex AI-Verwaltungsgebühr-SKU. So können Sie Ihre Rabatte für zugesicherte Nutzung (Committed Use Discounts, CUDs) in Vertex AI nutzen.
A4-Serie
Maschinentyp | Preis (in $) |
|---|---|
a4-highgpu-8g | 148,212 $ / 1 hour |
Bei der Nutzung von reservierter oder Spot-Kapazität wird die Abrechnung auf zwei SKUs aufgeteilt: die GCE-SKU mit dem Label „vertex-ai-online-prediction“ und die Vertex AI-Verwaltungsgebühr-SKU. So können Sie Ihre Rabatte für zugesicherte Nutzung (Committed Use Discounts, CUDs) in Vertex AI nutzen.
A4X-Serie
Maschinentyp | Preis (in $) |
|---|---|
a4x-highgpu-4g | 74,75 $ / 1 hour |
Bei der Nutzung von reservierter oder Spot-Kapazität wird die Abrechnung auf zwei SKUs aufgeteilt: die GCE-SKU mit dem Label „vertex-ai-online-prediction“ und die Vertex AI-Verwaltungsgebühr-SKU. So können Sie Ihre Rabatte für zugesicherte Nutzung (Committed Use Discounts, CUDs) in Vertex AI nutzen.
a4x-highgpu-4g erfordert mindestens 18 VMs.
G2-Serie
Maschinentyp | Preis (in $) |
|---|---|
g2-standard-4 | 0,81293 $ / 1 hour |
g2-standard-8 | 0,98181 $ / 1 hour |
g2-standard-12 | 1,15069 $ / 1 hour |
g2-standard-16 | 1,31957 $ / 1 hour |
g2-standard-24 | 2,30138 $ / 1 hour |
g2-standard-32 | 1,99509 $ / 1 hour |
g2-standard-48 | 4,60276 $ / 1 hour |
g2-standard-96 | 9,20552 $ / 1 hour |
Bei der Nutzung von reservierter oder Spot-Kapazität wird die Abrechnung auf zwei SKUs aufgeteilt: die GCE-SKU mit dem Label „vertex-ai-online-prediction“ und die Vertex AI-Verwaltungsgebühr-SKU. So können Sie Ihre Rabatte für zugesicherte Nutzung (Committed Use Discounts, CUDs) in Vertex AI nutzen.
G4-Serie
Maschinentyp | Preis (in $) |
|---|---|
g4-standard-48 | 5,17508763 $ / 1 hour |
g4-standard-96 | 10,35017526 $ / 1 hour |
g4-standard-192 | 20,70035052 $ / 1 hour |
g4-standard-384 | 41,40070104 $ / 1 hour |
TPU v5e – Preise
Maschinentyp | Preis (in $) |
|---|---|
ct5lp-hightpu-1t | 1,38 $ / 1 hour |
ct5lp-hightpu-4t | 5,52 $ / 1 hour |
ct5lp-hightpu-8t | 5,52 $ / 1 hour |
Jeder Maschinentyp wird in Ihrer Google Cloud-Rechnung unter den folgenden SKUs abgerechnet:
Die Preise für Maschinentypen entsprechen ungefähr den stündlichen Gesamtkosten für jeden Vorhersageknoten einer Modellversion, die diesen Maschinentyp verwendet.
Ein Maschinentyp vom Typ „n1-highcpu-32“ umfasst beispielsweise 32 vCPUs und 32 GB RAM. Der Stundensatz entspricht daher 32 vCPU-Stunden + 32 GB-Stunden.
E2-Serie
Posten | Preis (in $) |
|---|---|
vCPU | 0,0250826 $ / 1 hour |
RAM | 0,0033614 $ / 1 gibibyte hour |
N1-Serie
Posten | Preis (in $) |
|---|---|
vCPU | 0,036 $ / 1 hour |
RAM | 0,005 $ / 1 gibibyte hour |
N2-Serie
Posten | Preis (in $) |
|---|---|
vCPU | 0,0363527 $ / 1 hour |
RAM | 0,0048725 $ / 1 gibibyte hour |
N2D-Serie
Posten | Preis (in $) |
|---|---|
vCPU | 0,0316273 $ / 1 hour |
RAM | 0,0042389 $ / 1 gibibyte hour |
C2-Serie
Posten | Preis (in $) |
|---|---|
vCPU | 0,039077 $ / 1 hour |
RAM | 0,0052325 $ / 1 gibibyte hour |
C2D-Serie
Posten | Preis (in $) |
|---|---|
vCPU | 0,0339974 $ / 1 hour |
RAM | 0,0045528 $ / 1 gibibyte hour |
C3-Serie
Posten | Preis (in $) |
|---|---|
vCPU | 0,03908 $ / 1 hour |
RAM | 0,00524 $ / 1 gibibyte hour |
A2-Serie
Posten | Preis (in $) |
|---|---|
vCPU | 0,0363527 $ / 1 hour |
RAM | 0,0048725 $ / 1 gibibyte hour |
GPU (A100 40 GB) | 3,3741 $ / 1 hour |
GPU (A100 80 GB) | 4,51729 $ / 1 hour |
A3-Serie
Posten | Preis (in $) |
|---|---|
vCPU | 0,0293227 $ / 1 hour |
RAM | 0,0025534 $ / 1 gibibyte hour |
GPU (H100 80 GB) | 11,2660332 $ / 1 hour |
GPU (H200) | 10,708501 $ / 1 hour |
G2-Serie
Posten | Preis (in $) |
|---|---|
vCPU | 0,02874 $ / 1 hour |
RAM | 0,00337 $ / 1 gibibyte hour |
GPU (L4) | 0,64405 $ / 1 hour |
Bei einigen Maschinentypen können Sie optionale GPU-Beschleuniger für die Vorhersage hinzufügen. Für optionale GPUs wird abweichend von der oben stehenden Tabelle eine zusätzliche Gebühr erhoben. In der folgenden Preistabelle sind die Preise für jeden Typ von optionaler GPU beschrieben.
Beschleuniger – Preis pro Stunde
GPU-Typ | Preis (in $) |
|---|---|
NVIDIA_TESLA_P4 | 0,69 $ / 1 hour |
NVIDIA_TESLA_P100 | 1,679 $ / 1 hour |
NVIDIA_TESLA_T4 | 0,402 $ / 1 hour |
NVIDIA_TESLA_V100 | 2,852 $ / 1 hour |
Die Preise gelten pro GPU. Wenn Sie also mehrere GPUs pro Vorhersageknoten verwenden (oder wenn Ihre Version für die Verwendung mehrerer Knoten skaliert wird),steigen auch die Kosten entsprechend.
AI Platform Prediction stellt Vorhersagen zu Ihrem Modell bereit, indem mehrere virtuelle Maschinen („Knoten“) ausgeführt werden. Standardmäßig skaliert Vertex AI automatisch die Anzahl der Knoten, die jeweils ausgeführt werden. Bei Online-Vorhersagen wird die Anzahl der Knoten entsprechend dem Bedarf skaliert. Jeder Knoten kann mehrere Vorhersageanfragen verarbeiten. Bei Batch-Vorhersagen wird die Anzahl der Knoten so skaliert, dass die Gesamtzeit reduziert wird, die zur Ausführung eines Jobs benötigt wird. Die Skalierung der Vorhersageknoten lässt sich außerdem anpassen.
Es werden Gebühren für den Zeitraum berechnet, in dem jeder Knoten für Ihr Modell ausgeführt wird. Dazu gehören folgende Vorgänge bzw. Zustände:
Die Kosten für die einstündige Ausführung eines Knotens entsprechen einer Knotenstunde. In der Tabelle mit den Preisen für Vorhersagen wird der Preis für eine Knotenstunde beschrieben. Dieser ist je nach Region sowie für Onlinevorhersagen und Batchvorhersagen unterschiedlich.
Knotenstunden werden schrittweise erhöht. Zum Beispiel kostet ein 30 Minuten lang ausgeführter Knoten 0, 5 Knotenstunden.
Kostenberechnung für Compute Engine-Maschinentypen (N1)
Weitere Informationen zu Autoscaling und Vorhersageknoten
Onlinevorhersage | Batchvorhersage |
|---|---|
Die Priorität der Skalierung ist es, die Latenz einzelner Anfragen zu reduzieren. Der Dienst gewährleistet nach der Durchführung einer Anfrage einige Minuten lang die Bereitschaft Ihres Modells. | Die Priorität der Skalierung ist es, die Gesamtlaufzeit des Jobs zu reduzieren. |
Die Skalierung hat Auswirkungen auf Ihre monatlichen Gesamtkosten: Je mehr und je öfter Anfragen gestellt werden, desto mehr Knoten werden verwendet. | Die Skalierung hat in der Regel geringe Auswirkungen auf den Preis Ihres Jobs, auch wenn mit der Bereitstellung eines neuen Knotens ein gewisser Aufwand verbunden ist. |
Sie können auswählen, den Dienst in Abhängigkeit vom Traffic zu skalieren (Autoscaling), oder Sie können die Anzahl der Knoten festlegen, die dauerhaft ausgeführt werden sollen, um eine Latenz zu vermeiden (manuelle Skalierung).
| Sie können die Skalierung beeinflussen, indem Sie die maximale Anzahl von Knoten festlegen, die für einen Batchvorhersagejob zu verwenden sind, und die Anzahl der Knoten angeben, die für ein Modell ausgeführt werden sollen, wenn Sie dieses bereitstellen. |
Batch-Vorhersagejobs werden nach Abschluss des Jobs abgerechnet.
Batch-Vorhersagejobs werden nach Abschluss des Jobs berechnet, nicht schrittweise währenddessen. Von Ihnen konfigurierte Budgetwarnungen in Cloud Billing werden nicht ausgelöst, während ein Job verarbeitet wird. Bevor Sie einen großen Job starten, sollten Sie einige Jobs mit geringen Eingabedaten ausführen, um die Kosten abzuschätzen.
Beispiel für eine Vorhersageberechnung
Ein Immobilienunternehmen in einer Region in Amerika führt jede Woche in den von ihm betreuten Bereichen eine Vorhersage der Immobilienwerte durch. In einem Monat werden die Vorhersagen für vier Wochen in Batches mit 3920, 4277, 3849 und 3961 durchgeführt. Jobs sind auf einen Knoten beschränkt und jede Instanz benötigt durchschnittlich 0,72 Sekunden für die Verarbeitung.
Zuerst wird der Zeitraum für die Ausführung der einzelnen Jobs berechnet:
Jeder Job hat mehr als 10 Minuten gebraucht, also wird jede Minute der Verarbeitung in Rechnung gestellt:
Dies ergibt eine Gesamtgebühr von 0,26 $ für den Monat.
In diesem Beispiel wurde angenommen, dass die Jobs auf einem einzelnen Knoten ausgeführt werden und eine konstante Zeit pro Eingabeinstanz benötigen. Unter realen Bedingungen sollten Sie für Ihre Berechnungen darauf achten, dass mehrere Knoten verwendet werden und die tatsächliche Zeit berücksichtigt wird, die jeder Knoten für die Ausführung benötigt.
Preise für Vertex Explainable AI
Featurebasierte Erklärungen
Featurebasierte Erklärungen werden ohne Aufpreis zu den Vorhersagepreisen angeboten. Die Verarbeitung von Erklärungen dauert jedoch länger als normale Vorhersagen. Wenn Vertex Explainable AI also viel mit Autoscaling genutzt wird, kann das dazu führen, dass mehr Knoten gestartet werden und so die Vorhersagekosten steigen.
Beispielgestützte Erklärungen
Die Preise für beispielgestützte Erklärungen setzen sich so zusammen:
Die folgenden Tabellen enthalten eine Übersicht über die Preise in den Regionen, in denen Neural Architecture Search verfügbar ist.
Preise
In den folgenden Tabellen finden Sie die Preise pro Stunde für verschiedene Konfigurationen.
Sie können sich für eine vordefinierte Skalierungsstufe oder eine benutzerdefinierte Konfiguration ausgewählter Maschinentypen entscheiden. Wenn Sie eine benutzerdefinierte Konfiguration auswählen, müssen Sie die Kosten der verwendeten virtuellen Maschinen addieren.
Bei beschleunigerfähigen Legacy-Maschinentypen beinhaltet der Preis bereits die Kosten für die Beschleuniger. Wenn Sie dagegen Compute Engine-Maschinentypen verwenden und diese um Beschleuniger ergänzen, werden die Kosten dafür getrennt abgerechnet. Multiplizieren Sie die Preise für Beschleuniger aus der folgenden Tabelle mit der Anzahl der verwendeten Beschleuniger der einzelnen Typen, um den Preis zu ermitteln.
Maschinentypen
Maschinentyp | Preis (in $) |
|---|---|
n1-standard-4 | 0,2849985 $ / 1 hour |
n1-standard-8 | 0,569997 $ / 1 hour |
n1-standard-16 | 1,139994 $ / 1 hour |
n1-standard-32 | 2,279988 $ / 1 hour |
n1-standard-64 | 4,559976 $ / 1 hour |
n1-standard-96 | 6,839964 $ / 1 hour |
n1-highmem-2 | 0,1774545 $ / 1 hour |
n1-highmem-4 | 0,1774545 $ / 1 hour |
n1-highmem-8 | 0,709818 $ / 1 hour |
n1-highmem-16 | 1,419636 $ / 1 hour |
n1-highmem-32 | 2,839272 $ / 1 hour |
n1-highmem-64 | 5,678544 $ / 1 hour |
n1-highmem-96 | 8,517816 $ / 1 hour |
n1-highcpu-16 | 0,8501832 $ / 1 hour |
n1-highcpu-32 | 1,7003664 $ / 1 hour |
n1-highcpu-64 | 3,4007328 $ / 1 hour |
n1-highcpu-96 | 5,1010992 $ / 1 hour |
a2-highgpu-1g | 5,641070651 $ / 1 hour |
a2-highgpu-2g | 11,282141301 $ / 1 hour |
a2-highgpu-4g | 22,564282603 $ / 1 hour |
a2-highgpu-8g | 45,128565205 $ / 1 hour |
a2-highgpu-16g | 90,257130411 $ / 1 hour |
e2-standard-4 | 0,20103426 $ / 1 hour |
e2-standard-8 | 0,40206852 $ / 1 hour |
e2-standard-16 | 0,80413704 $ / 1 hour |
e2-standard-32 | 1,60827408 $ / 1 hour |
e2-highmem-2 | 0,13559949 $ / 1 hour |
e2-highmem-4 | 0,27119898 $ / 1 hour |
e2-highmem-8 | 0,54239796 $ / 1 hour |
e2-highmem-16 | 1,08479592 $ / 1 hour |
e2-highcpu-16 | 0,59364288 $ / 1 hour |
e2-highcpu-32 | 1,18728576 $ / 1 hour |
n2-standard-4 | 0,291354 $ / 1 hour |
n2-standard-8 | 0,582708 $ / 1 hour |
n2-standard-16 | 1,165416 $ / 1 hour |
n2-standard-32 | 2,330832 $ / 1 hour |
n2-standard-48 | 3,496248 $ / 1 hour |
n2-standard-64 | 4,661664 $ / 1 hour |
n2-standard-80 | 5,82708 $ / 1 hour |
n2-highmem-2 | 0,196521 $ / 1 hour |
n2-highmem-4 | 0,393042 $ / 1 hour |
n2-highmem-8 | 0,786084 $ / 1 hour |
n2-highmem-16 | 1,572168 $ / 1 hour |
n2-highmem-32 | 3,144336 $ / 1 hour |
n2-highmem-48 | 4,716504 $ / 1 hour |
n2-highmem-64 | 6,288672 $ / 1 hour |
n2-highmem-80 | 7,86084 $ / 1 hour |
n2-highcpu-16 | 0,860352 $ / 1 hour |
n2-highcpu-32 | 1,720704 $ / 1 hour |
n2-highcpu-64 | 3,441408 $ / 1 hour |
n2-highcpu-80 | 4,30176 $ / 1 hour |
c2-standard-4 | 0,313212 $ / 1 hour |
c2-standard-8 | 0,626424 $ / 1 hour |
c2-standard-16 | 1,252848 $ / 1 hour |
c2-standard-30 | 2,34909 $ / 1 hour |
c2-standard-60 | 4,69818 $ / 1 hour |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Die Preise für a2-highgpu-Instanzen beinhalten die Kosten für die angehängten NVIDIA_TESLA_A100-Beschleuniger.
Beschleuniger
GPU-Typ | Preis (in $) |
|---|---|
NVIDIA_TESLA_A100 | 4,400862 $ / 1 hour |
NVIDIA_TESLA_P4 | 0,90 $ / 1 hour |
NVIDIA_TESLA_P100 | 2,19 $ / 1 hour |
NVIDIA_TESLA_T4 | 0,525 $ / 1 hour |
NVIDIA_TESLA_V100 | 3,72 $ / 1 hour |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Laufwerke
Laufwerkstyp | Preis (in $) |
|---|---|
pd-standard | 0,000082192 $ / 1 gibibyte hour |
pd-ssd | 0,000349315 $ / 1 gibibyte hour |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Hinweise:
Erforderliche Nutzung von Cloud Storage
Zusätzlich zu den in diesem Dokument beschriebenen Kosten entstehen weitere Kosten, da Daten und Programmdateien während des Lebenszyklus der Neural Architecture Search in Cloud Storage-Buckets gespeichert werden müssen. Diese Speicherung wird über das Cloud Storage-Preismodell abgerechnet.
Die erforderliche Verwendung von Cloud Storage umfasst Folgendes:
Hinweis: Sie können zum Speichern Ihrer Eingabedaten auch einen anderen Google Cloud-Dienst wie BigQuery verwenden. Dafür gelten dann eigene Preise.
Kostenlose Ressourcenverwaltung
Für die Ressourcenverwaltung von Neural Architecture Search fallen keine Kosten an. Einige Vorgänge werden jedoch durch die Kontingentrichtlinie von Neural Architecture Search eingeschränkt.
Ressource | Kostenlose Vorgänge |
|---|---|
Jobs | get, list, cancel |
Vorgänge | get, list, cancel, delete |
Für Vertex AI Pipelines wird je Ausführung einer Pipeline eine Ausführungsgebühr von 0,03 $berechnet. Während der Vorabversion wird Ihnen die Ausführungsgebühr nicht berechnet. Außerdem werden Ihnen Google Cloud-Ressourcen berechnet, die Sie mit Vertex AI Pipelines verwenden, z. B. von Pipelinekomponenten verbrauchte Compute Engine-Ressourcen. Diese werden zum selben Tarif wie Vertex AI Trainings abgerechnet. Außerdem entstehen Kosten für die Dienste, die von Ihrer Pipeline aufgerufen werden (z. B. Dataflow).
Vertex AI Feature Store hat seit November 2023 den Status General Availability (GA). Informationen zur vorherigen Produktversion finden Sie unter Vertex AI Feature Store (Legacy).
Neuer Vertex AI Feature Store
Der neue Vertex AI Feature Store unterstützt Funktionen für zwei Arten von Operationen:
Preise für Offlinebetrieb
Da BigQuery für Offlinevorgänge verwendet wird, gelten die Preise für BigQuery für Funktionen wie die Aufnahme in den Offlinespeicher, die Abfrage des Offlinespeichers und die Offlinespeicherung.
Preise für Onlinebetrieb
Für den Onlinebetrieb verrechnet Vertex AI Feature Store Gebühren für alle GA-Funktionen zur Übertragung von Daten in den Onlinespeicher, zur Bereitstellung sowie zur Speicherung von Daten. Als Knotenstunde wird die Zeit berechnet, die für die Ausführung von Abläufen auf einer virtuellen Maschine benötigt wird. Die Abrechnung erfolgt dabei minutengenau.
Aktion | Preis (in $) |
|---|---|
Knoten zur Datenverarbeitung Datenverarbeitung (z.B. Aufnahme in ein Online- Speichern, Überwachen usw.) | 0,08 $ / 1 hour |
Optimierte Onlinebereitstellungsknoten Bereitstellung mit niedriger Latenz und Bereitstellung von Einbettungen Jeder Knoten umfasst 200 GB Speicherplatz | 0,30 $ / 1 hour |
Bigtable-Onlinebereitstellungsknoten Bereitstellung mit Cloud Bigtable | 0,94 $ / 1 hour |
Bigtable-Onlinebereitstellungsspeicher Speicher für die Bereitstellung mit Cloud Bigtable | 0,000342466 $ / 1 gibibyte hour |
Optimierte Onlinebereitstellung und Bigtable-Onlinebereitstellung verwenden unterschiedliche Architekturen, sodass die Knotenpunkte nicht vergleichbar sind.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Schätzungen zu Arbeitslasten im Onlinebetrieb
Beachten Sie bei der Schätzung Ihrer Arbeitslasten nachstehende Richtlinien. Die Anzahl der für eine bestimmte Arbeitslast erforderlichen Knoten kann bei einzelnen Bereitstellungskonzepten unterschiedlich sein.
Die Anzahl der Knoten (mit Replikaten) können Sie im Metrics Explorer ansehen:

Beispiel für monatliche Kosten (unter Verwendung von us-central1)
Datenstreaming-Arbeitslast: Bigtable-Onlinebereitstellung mit 2,5 TB Daten (1 GB täglich aktualisiert) und 1.200 Abfragen pro Sekunde
Vorgänge | Monatliche Nutzung | Kosten pro Monat |
|---|---|---|
Knoten zur Datenverarbeitung | (1 GB/Tag) × (30 Tage/Monat) × (1.000 MB/GB) × (1 Knotenstunde / 100 MB) = 300 Knotenstunden | 300 Knotenstunden × (0,08 $ je Knotenstunde) = 24 $ |
Optimierte Onlinebereitstellungsknoten | – | – |
Bigtable-Onlinebereitstellungsknoten | (1 Knoten) × (24 Stunden/Tag) × (30 Tage/Monat) = 720 Knotenstunden | 720 Knotenstunden × (0,94 $ pro Knotenstunde) = 677 $ |
Bigtable-Onlinebereitstellungsspeicher | (2,5 TB/Monat) × (1.000 GB/TB) = 2.500 GB/Monat | 2.500 GB/Monat × (0,25 $ pro GB/Monat) = 625 $ |
Summe | 1.326 $ |
Arbeitslast mit hohem QPS-Wert: Optimierte Onlinebereitstellung mit 10 GB Nicht-Embedding-Daten (5 GB täglich aktualisiert) und 2.000 QPS
Vorgänge | Monatliche Nutzung | Kosten pro Monat |
|---|---|---|
Knoten zur Datenverarbeitung | (5 GB/Tag) × (30 Tage/Monat) × (1.000 MB/GB) × (1 Knotenstunde / 100 MB) = 1.500 Knotenstunden | 1.500 Knotenstunden × (0,08 $ je Knotenstunde) = 120 $ |
Optimierte Onlinebereitstellungsknoten | Aufrunden(10 GB * (1 Knoten / 200 GB)) = 1 * max(2 Standardreplikate, 2.000 QPS * (1 Replikat / 500 QPS)) = 4 Knoten insgesamt * (24 Stunden/Tag) * (30 Tage/Monat) =2.880 Knotenstunden | 2.880 Knotenstunden × (0,30 $ je Knotenstunde) = 864 $ |
Bigtable-Onlinebereitstellungsknoten | – | – |
Bigtable-Onlinebereitstellungsspeicher | – | – |
Summe | 984$ |
Arbeitslast für die Bereitstellung von Einbettungen: Optimierte Onlinebereitstellung mit 20 GB an Einbettungsdaten (2 GB täglich aktualisiert) und 800 Abfragen pro Sekunde
Vorgänge | Monatliche Nutzung | Kosten pro Monat |
|---|---|---|
Knoten zur Datenverarbeitung | (2 GB/Tag) × (30 Tage/Monat) × (1.000 MB/GB) × (1 Knotenstunde / 100 MB) = 600 Knotenstunden | 600 Knotenstunden × (0,08 $ je Knotenstunde) = 48 $ |
Optimierte Onlinebereitstellungsknoten | Aufrunden(20 GB* (1 Knoten / 4 GB) = 5 * max(2 Standardreplikate, 800 QPS * (1 Replikat / 500 QPS)) = 10 Knoten insgesamt * (24 Stunden/Tag) * (30 Tage/Monat) = 7.200 Knotenstunden | 7.200 Knotenstunden × (0,30 $ pro Knotenstunde) = 2.160 $ |
Bigtable-Onlinebereitstellungsknoten | – | – |
Bigtable-Onlinebereitstellungsspeicher | – | – |
Summe | 2.208$ |
Vertex AI Feature Store (Legacy)
Die Preise für den Vertex AI Feature Store (Legacy) basieren auf der Menge der Feature-Daten im Online- und Offlinespeicher sowie auf der Verfügbarkeit der Onlinebereitstellung. Als Knotenstunde wird die Zeit berechnet, die eine virtuelle Maschine für die Bereitstellung von Feature-Daten verwendet oder die sie bei der Verarbeitung von Feature-Datenanfragen im Bereitschaftszustand wartet.
Aktion | Preis (in $) |
|---|---|
Onlinespeicher | 0,25 $ pro GB und Monat |
Offlinespeicher | 0,023 $ pro GB und Monat |
Onlinebereitstellung | 0,94 $ pro Knoten und Stunde |
Batch-Export | 0,005 $ pro GB |
Streamingaufnahme | 0,10 $ pro GB aufgenommener Daten |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Wenn Sie das Monitoring für Feature-Werte aktivieren, umfasst die Abrechnung die oben genannten Kosten sowie zusätzlich die nachstehenden Kosten:
Beispiel für die Snapshot-Analyse
Ein Data Scientist aktiviert das Monitoring für Feature-Werte für einen Vertex AI Feature Store (Legacy) und schaltet das Monitoring für eine tägliche Snapshot-Analyse ein. Für das Monitoring der Entitätstypen wird täglich eine Pipeline ausgeführt. Die Pipeline scannt 2 GB an Daten im Vertex AI Feature Store (Legacy) und exportiert einen Snapshot mit 0,1 GB an Daten. Die Gesamtkosten für eine eintägige Analyse betragen:
(0,1 GB × 3,50 $) + (2 GB × 0,005 $) = 0,36 $
Beispiel für die Datenaufnahmeanalyse
Ein Data Scientist aktiviert das Monitoring für Feature-Werte für einen Vertex AI Feature Store (Legacy) und schaltet das Monitoring für Datenaufnahmevorgänge ein. Ein Datenaufnahmevorgang importiert 1 GB an Daten in den Vertex AI Feature Store (Legacy). Die Gesamtkosten für das Monitoring der Feature-Werte betragen:
(1 GB × 3,50 $) = 3,50 $
Der Metadatenspeicher wird in binären Gigabyte (GiB) gemessen, wobei 1 GiB 1.073.741.824 Byte beträgt. Diese Maßeinheit wird auch als Gibibyte bezeichnet.
Für Vertex ML Metadata fallen 10 $pro Gibibyte (GiB) pro Monat für die Speicherung von Metadaten an. Die Preise werden anteilig pro Megabyte (MB) abgerechnet. Wenn Sie beispielsweise 10 MB Metadaten speichern, werden Ihnen für diese 10 MB 0, 10 $pro Monat berechnet.
Die Preise sind in allen Regionen identisch, in denen Vertex ML Metadata unterstützt wird.
Wenn Sie Vertex AI TensorBoard nutzen wollen, muss Ihnen ein Mitglied der IAM-Administration des Projekts die Rolle Vertex AI TensorBoard Web App User zuweisen. Mit der Rolle „Vertex AI Administrator“ haben Sie ebenfalls Zugriff.
Im August 2023 hat sich die Preisgestaltung für Vertex AI TensorBoard von einer monatlichen Lizenz pro Nutzer für 300 $/Monat auf 10 GiB/Monat für die Datenspeicherung von Logs und Metriken geändert. Das bedeutet, dass keine Abogebühren mehr anfallen. Sie zahlen nur für den verwendeten Speicherplatz. Unter Vertex AI TensorBoard: Löschen veralteter TensorBoard-Experimente finden Sie eine Anleitung zum Speichermanagement.
Vertex AI Vizier ist ein Blackbox-Optimierungsdienst innerhalb von Vertex AI. Die Preisgestaltung für Vertex AI Vizier hat diese Komponenten:
Die Preise für die ungefähre Vektorsuche nach dem nächsten Nachbarn umfassen:
Daten, die während der Erstellung und Aktualisierung von Indexen verarbeitet werden, werden in binären Gigabyte (GiB) gemessen, wobei 1 GiB 1.073.741.824 Byte beträgt. Diese Maßeinheit wird auch als Gibibyte bezeichnet.
Für die Vektorsuche werden in allen Regionen 3 $pro Gibibyte (GiB) an verarbeiteten Daten berechnet. Für die Vektorsuche werden 0,45 $/GiB für Streaming-Update-Einfügungen berechnet.
Die folgenden Tabellen enthalten eine Übersicht über die Preise einer Indexbereitstellung in jeder Region, in der die Vektorsuche verfügbar ist. Der Preis richtet sich nach Maschinentyp und Region und wird pro Knotenstunde berechnet.
Maschinentyp | Preis (in $) |
|---|---|
e2-standard-2 | 0,0938084 $ / 1 hour |
e2-standard-16 | 0,7504672 $ / 1 hour |
e2-highmem-16 | 1,012368 $ / 1 hour |
n2d-standard-32 | 1,8926208 $ / 1 hour |
n1-standard-16 | 1,0639944 $ / 1 hour |
n1-standard-32 | 2,1279888 $ / 1 hour |
Preisbeispiele für die Vektorsuche
Die Preise für die Vektorsuche richten sich nach der Größe Ihrer Daten, der Anzahl der Abfragen pro Sekunde (QPS), die Sie ausführen möchten, und der Anzahl der von Ihnen verwendeten Knoten. Um die geschätzten Kosten für die Bereitstellung zu ermitteln, müssen Sie die Gesamtdatenmenge berechnen. Die Datengröße ist die Anzahl der Einbettungen/Vektoren × die Anzahl der Dimensionen × 4 Byte pro Dimension. Nachdem Sie den Umfang Ihrer Daten ermittelt haben, können Sie die Kosten für die Bereitstellung und den Build berechnen. Die Bereitstellungskosten plus die Build-Kosten ergeben die monatlichen Gesamtkosten.
Streaming-Update: Die Vektorsuche verwendet heuristikbasierte Messwerte, um zu bestimmen, wann die Verdichtung ausgelöst werden soll. Wenn die ältesten nicht komprimierten Daten fünf Tage alt sind, wird immer die Verdichtung ausgelöst. Ihnen werden die Kosten für die Neuerstellung des Index zum selben Preis wie ein Batchupdate in Rechnung gestellt.
Anzahl der Einbettungen/Vektoren | Anzahl der Dimensionen | Abfragen pro Sekunde (Queries per second, QPS) | Maschinentyp | Knoten | Geschätzte monatliche Bereitstellungskosten (USD) |
|---|---|---|---|---|---|
2 Millionen | 128 | 100 | e2-standard-2 | 1 | 68 $ |
20 Millionen | 256 | 1.000 | e2-standard-16 | 1 | 547 $ |
20 Millionen | 256 | 3.000 | e2-standard-16 | 3 | 1.642 $ |
100 Millionen | 256 | 500 | e2-highmem-16 | 2 | 1.477 $ |
1 Milliarde | 100 | 500 | e2-highmem-16 | 8 | 5.910 $ |
Alle Beispiele basieren auf Maschinentypen in „us-central1“. Die Kosten, die Ihnen entstehen, hängen von der Abrufrate und den Latenzanforderungen ab. Die geschätzten monatlichen Bereitstellungskosten hängen direkt von der Anzahl der in der Console verwendeten Knoten ab. Weitere Informationen zu Konfigurationsparametern, die sich auf die Kosten auswirken, finden Sie unter Konfigurationsparameter, die sich auf Recall und Latenz auswirken.
Wenn Sie viele Abfragen pro Sekunde (QPS) ausführen, kann eine Batch-Verarbeitung dieser Abfragen die Gesamtkosten um bis zu 30–40 % senken.
Speicheroptimierte Vektorsuche
Statt einzelne VMs und separate Komprimierungsjobs zu verwalten und zu bezahlen, gibt es zwei SKUs:
Einheit | Preis |
|---|---|
Speicheroptimierte Kapazitätseinheit | 2,30 $ / 1 hour |
Schreibeinheiten | 0,45 $ / 1 gibibyte |
Die Vertex AI Model Registry ist ein zentrales Repository, das Ihre Modelle und Modellversionen verfolgt und auflistet. Sie können Modelle zu Vertex AI importieren, woraufhin diese in der Vertex AI Model Registry aufgeführt werden. Die Aufnahme Ihrer Modelle in die Model Registry ist mit keinerlei Kosten verbunden. Kosten fallen nur an, wenn Sie das Modell an einem Endpunkt bereitstellen oder eine Batch-Vorhersage für das Modell ausführen. Diese Kosten hängen von der Art des Modells ab, das Sie einsetzen wollen.
Weitere Informationen zu den Preisen für die Bereitstellung von benutzerdefinierten Modellen aus der Vertex AI Model Registry finden Sie unter Benutzerdefiniert trainierte Modelle. Weitere Informationen zu den Preisen für die Bereitstellung von AutoML-Modellen finden Sie unter Preise für AutoML-Modelle.
Mit Vertex AI können Sie die kontinuierliche Effektivität von Modellen nach der Bereitstellung überwachen. Weitere Informationen finden Sie unter Einführung in Vertex AI Model Monitoring.
Bei der Nutzung von Vertex AI Model Monitoring werden Ihnen in Rechnung gestellt:
Vertex AI Model Monitoring wird in den folgenden Regionen unterstützt: us-central1, europe-west4, asia-east1 und asia-southeast1. Die Preise sind für alle Regionen gleich.
Die Datengrößen werden nach der Konvertierung in das TfRecord-Format gemessen.
Für Trainings-Datasets fällt eine einmalige Gebühr an, wenn Sie einen Vertex AI Model Monitoring-Job einrichten.
Vorhersage-Datasets bestehen aus Logs, die vom Online-Vorhersagedienst erfasst werden. Da die Vorhersageanfragen in verschiedenen Zeitfenstern eintreffen, werden die Daten für jedes Zeitfenster erfasst und die Summe der für jedes Vorhersagefenster analysierten Daten zur Berechnung der Kosten verwendet.
Beispiel: Ein Data Scientist führt ein Modellmonitoring für den Vorhersage-Traffic eines Modells aus.
Wählen Sie Instanzen, verwaltete Notebooks oder nutzerverwaltete Notebooks für Preisinformationen.
Instanzen
Die folgenden Tabellen enthalten die ungefähren Preise pro Stunde für verschiedene Trainingskonfigurationen. Sie können sich für eine benutzerdefinierte Konfiguration ausgewählter Maschinentypen entscheiden. Addieren Sie die Kosten der verwendeten virtuellen Maschinen, um den Preis zu ermitteln.
Wenn Sie dagegen Compute Engine-Maschinentypen verwenden und diese um Beschleuniger ergänzen, werden die Kosten dafür getrennt abgerechnet. Multiplizieren Sie die Preise für Beschleuniger aus der nachstehenden Tabelle mit der Anzahl der Maschinenstunden je verwendetem Beschleuniger der einzelnen Typen, um den Preis zu ermitteln.
CPUs
Maschinentyp | Preis pro vCPU (in USD) |
|---|---|
N1 | 0,0379332 $ / 1 hour |
N2 | 0,0379332 $ / 1 hour |
E2 | 0,026173908 $ / 1 hour |
A2 | 0,0379332 $ / 1 hour |
Speicher
Maschinentyp | Preis (in $) |
|---|---|
N1 | 0,0050844 $ / 1 gibibyte hour |
N2 | 0,0050844 $ / 1 gibibyte hour |
E2 | 0,003508236 $ / 1 gibibyte hour |
A2 | 0,0050844 $ / 1 gibibyte hour |
Beschleuniger
Maschinentyp | Preis (in $) |
|---|---|
Nvidia Tesla A100 | 4,400862 $ / 1 hour |
Nvidia Tesla A100 80 GB | 4,51729 $ / 1 hour |
Nvidia Tesla T4 | 0,525 $ / 1 hour |
Nvidia Tesla V100 | 3,72 $ / 1 hour |
Nvidia Tesla P100 | 2,19 $ / 1 hour |
Laufwerke
Maschinentyp | Preis (in $) |
|---|---|
Bereitgestellter Hyperdisk Extreme-Speicherplatz | 0,000205479 $ / 1 gibibyte hour |
Bereitgestellter abgestimmter Speicherplatz | 0,000164384 $ / 1 gibibyte hour |
Bereitgestellter Extrem-Speicherplatz | 0,000205479 $ / 1 gibibyte hour |
Bereitgestellter SSD-Speicherplatz | 0,000279452 $ / 1 gibibyte hour |
Bereitgestellter Standard-Speicherplatz | 0,000065753 $ / 1 gibibyte hour |
Für Ihre Vertex AI Workbench-Instanz fallen folgende Kosten an:
Verwaltete Notebooks
Der Preis setzt sich aus den Kosten der von Ihnen genutzten Rechen- und Speicherressourcen, den Verwaltungsgebühren für Ihre Vertex AI Workbench-Instanzen und allen Kosten für zusätzliche, von Ihnen genutzte Cloud-Ressourcen zusammen. Weitere Informationen finden Sie in den folgenden Abschnitten.
Computing- und Speicherressourcen
Rechen- und Speicherressourcen werden zu demselben Tarif berechnet, den Sie derzeit für Compute Engine und Cloud Storage zahlen.
Verwaltungsgebühren
Zusätzlich zur Nutzung der Infrastruktur fallen die in den nachstehenden Tabellen aufgeführten Gebühren für die Verwaltung von Vertex AI Workbench an.
Artikelnummer | Preis (in $) |
|---|---|
vCPU | 0,05 $ pro vCPU |
T4 und P4 (Standard-GPU) | 0,35 $ pro GPU |
P100, V100, L4 und A100 GPU (Premium-GPU) | 2,48 $ pro GPU |
Nutzerverwaltete Notebooks
Der Preis setzt sich aus den Kosten der von Ihnen genutzten Rechen- und Speicherressourcen, den Verwaltungsgebühren für Ihre Vertex AI Workbench-Instanzen und allen Kosten für zusätzliche, von Ihnen genutzte Cloud-Ressourcen zusammen. Weitere Informationen finden Sie in den folgenden Abschnitten.
Computing- und Speicherressourcen
Rechen- und Speicherressourcen werden zu demselben Tarif berechnet, den Sie derzeit für Compute Engine und Cloud Storage zahlen.
Verwaltungsgebühren
Zusätzlich zur Nutzung der Infrastruktur fallen die in den nachstehenden Tabellen aufgeführten Gebühren für die Verwaltung von Vertex AI Workbench an.
Artikelnummer | Preis (in $) |
|---|---|
vCPU | 0,005 $ pro vCPU |
T4 und P4 (Standard-GPU) | 0,035 $ pro GPU |
P100, V100 und A100 GPU (Premium-GPU) | 0,25 $ pro GPU |
Zusätzliche Google Cloud-Ressourcen
Zusätzlich zu den bereits erwähnten Kosten werden Ihnen auch alle von Ihnen genutzten Google Cloud-Ressourcen berechnet. Beispiel:
Preisinformationen zu Colab Enterprise finden Sie unter Colab Enterprise-Preise.
Die Preise für Deep Learning Container, Deep Learning VM Images und AI Platform Pipelines richten sich nach den von Ihnen verwendeten Rechen- und Speicherressourcen. Diese Ressourcen werden zu demselben Tarif berechnet, den Sie derzeit für Compute Engine und Cloud Storage zahlen.
Zusätzlich zu den Rechen- und Speicherkosten werden Ihnen auch alle von Ihnen genutzten Google Cloud-Ressourcen berechnet. Beispiel:
Mit Vertex AI können Sie für eine Datensammlung, die Sie zum Trainieren eines benutzerdefinierten Modells für maschinelles Lernen verwenden möchten, eine Labelerstellung durch Menschen anfordern. Die Preise für den Dienst werden basierend auf der Art der Labeling-Aufgabe berechnet.
In der folgenden Tabelle sind die Preise pro 1.000 Einheiten je menschlichem Labelersteller auf Grundlage der Einheit aufgeführt, die für jedes Ziel angegeben ist. Preisstufe 1 gilt für die ersten 50.000 Einheiten pro Monat in jedem Google Cloud-Projekt. Preisstufe 2 gilt für die nächsten 950.000 Einheiten pro Monat, die Teil des Projekts sind, bis zu einem Maximum von 1.000.000 Einheiten. Nehmen Sie bitte Kontakt mit uns auf, wenn Sie Auskünfte zu Preisen für mehr als 1.000.000 Einheiten pro Monat benötigen.
Datentyp | Ziel | Einheit | Preisstufe 1 (USD) | Preisstufe 2 (in $) |
|---|---|---|---|---|
Bild | Klassifizierung | Bild | 35 $ | 25 $ |
Begrenzungsrahmen | Begrenzungsrahmen | 63 $ | 49 $ | |
Segmentierung | Segment | 870 $ | 850 $ | |
Feldrotation | Begrenzungsrahmen | 86 $ | 60 $ | |
Polygon/Polylinie | Polygon/Polylinie | 257 $ | 180 $ | |
Video | Klassifizierung | 5 Sek. langes Video | 86 $ | 60 $ |
Objekt-Tracking | Begrenzungsrahmen | 86 $ | 60 $ | |
Aktionserkennung | Ereignis in 30 Sek. langem Video | 214 $ | 150 $ | |
Text | Klassifizierung | 50 Wörter | 129 $ | 90 $ |
Sentiment | 50 Wörter | 200 $ | 140 $ | |
Entitätsextraktion | Entität | 86 $ | 60 $ | |
Aktives Lernen | Alle | Datenelement | 80 $ | 56 $ |
Benutzerdefinierte Labelersteller | Alle | Datenelement | 80 $ | 56 $ |
Zusätzlich zu den in diesem Dokument beschriebenen Kosten ist es erforderlich, dass Sie Daten und Programmdateien während des Vertex AI-Lebenszyklus in Cloud Storage-Buckets speichern. Diese Speicherung wird über das Cloud Storage-Preismodell abgerechnet.
Die erforderliche Verwendung von Cloud Storage umfasst Folgendes:
Für die Ressourcenverwaltung von AI Platform fallen keine Kosten an. Die Kontingentrichtlinie von AI Platform beschränkt aber einige damit verbundene Vorgänge.
Ressource | Kostenlose Vorgänge |
|---|---|
Modelle | create, get, list, delete |
Versionen | create, get, list, delete, setDefault |
Jobs | get, list, cancel |
Vorgänge | get, list, cancel, delete |
Wenn Sie Bilder speichern, die in Cloud Storage analysiert werden sollen, oder wenn Sie andere Google Cloud-Ressourcen zusammen mit Vertex AI verwenden möchten, wird Ihnen auch die Nutzung dieser Dienste in Rechnung gestellt.
Ihren aktuellen Abrechnungsstatus einschließlich Nutzung und Ihrer aktuellen Rechnung finden Sie in der Cloud Console auf der Abrechnungsseite. Weitere Informationen zur Kontoverwaltung finden Sie in der Dokumentation zu Cloud Billing und unter Support zu Abrechnung und Zahlungen.