Dataproc Serverless – Preise
Die Preise für Dataproc Serverless für Spark basieren auf der Anzahl der Daten-Computing- Einheiten (DCUs), die Anzahl der verwendeten Beschleuniger und die Menge des Shuffle-Speichers verwendet. DCUs, Beschleuniger und Shuffle-Speicher werden pro Sekunde abgerechnet, wobei Mindestgebühr von 1 Minute für DCUs und Shuffle-Speicher, Mindestdauer von 5 Minuten Beschleuniger berechnen.
Jede Dataproc-vCPU zählt als 0,6 DCU. RAM wird anders aufgeladen 8 GB und höchstens 8 GB groß. Jedes Gigabyte RAM unter 8 GB Gigabyte pro vCPU zählt als 0,1 DCU und jedes Gigabyte RAM über 8 Gigabyte pro vCPU zählt als 0,2 DCU. Von Spark-Treibern und -Executors verwendeten Arbeitsspeicher sowie die Systemspeichernutzung werden gezählt auf die DCU-Nutzung.
Standardmäßig kann jede Dataproc Serverless for Spark-Batch- und interaktive Arbeitslast verwendet mindestens 12 DCUs für die Dauer der Arbeitslast: den Treiber verwendet 4 vCPUs und 16 GB RAM sowie 4 DCUs und jeden der 2 Executors verwendet 4 vCPUs und 16 GB RAM und verbraucht 4 DCUs. Sie können die Nummer anpassen von vCPUs und die Speichermenge pro vCPU nach Einstellung Spark-Attribute: Es fallen keine zusätzlichen Gebühren für Compute Engine-VMs oder nichtflüchtigen Speicher an.
Preise für Data Compute Unit (DCU)
Der unten gezeigte DCU-Preis ist ein Stundensatz. Die Kosten werden anteilig berechnet und in Rechnung gestellt
bei einer Mindestgebühr von 1 Minute.
<ph type="x-smartling-placeholder">
Dataproc Serverless für interaktive Spark-Arbeitslasten wird zum Premium-Tarif abgerechnet.
Preise für Shuffle-Speicher
Die unten gezeigte Shuffle-Speicherrate ist ein monatlicher Preis. Es wird anteilig berechnet und Abrechnung pro Sekunde, mit einer Mindestgebühr von 1 Minute für Standard-Shuffle-Speicher und eine Mindestgebühr von 5 Minuten für Premium-Shuffle-Speicher. Premium-Zufallsmix Speicher kann nur mit Premium-Recheneinheiten verwendet werden.
<ph type="x-smartling-placeholder">Accelerator-Preise
Die unten gezeigte Beschleunigerrate ist ein Stundensatz. Die Kosten werden anteilig berechnet und in Rechnung gestellt
bei einer Mindestladezeit von 5 Minuten.
<ph type="x-smartling-placeholder">
Preisbeispiel
Wenn die Batcharbeitslast von Dataproc Serverless for Spark mit 12 DCUs ausgeführt wird
(spark.driver.cores=4
,spark.executor.cores=4
,spark.executor.instances=2
)
für 24 Stunden in der Region us-central1
und verbraucht 25 GB Shuffle-Speicher.
wie folgt berechnet wird:
Total compute cost = 12 * 24 * $0.060000 = $17.28 Total storage cost = 25 * ($0.040/301) = $0.03 ------------------------------------------------ Total cost = $17.28 + $0.03 = $17.31
Hinweise:
- Im Beispiel wird von einem Monat mit 30 Tagen ausgegangen. Da die Dauer der Batcharbeitslast einer pro Tag wird die monatliche Shuffle-Speicherrate durch 30 geteilt.
Wenn die Batcharbeitslast von Dataproc Serverless for Spark mit 12 DCUs und 2
L4-GPUs (spark.driver.cores=4
,spark.executor.cores=4
,
spark.executor.instances=2
,spark.dataproc.driver.compute.tier=premium
,
spark.dataproc.executor.compute.tier=premium
,
spark.dataproc.executor.disk.tier=premium
,
spark.dataproc.executor.resource.accelerator.type=l4
) für 24 Stunden im
us-central1 und nutzt 25 GB Shuffle-Speicher.
lautet wie folgt.
Total compute cost = 12 * 24 * $0.089000 = $25.632 Total storage cost = 25 * ($0.1/301) = $0.083 Total accelerator cost = 2 * 24 * $0.6720 = $48.39 ------------------------------------------------ Total cost = $25.632 + $0.083 + $48.39 = $74.105
Hinweise:
- Im Beispiel wird von einem Monat mit 30 Tagen ausgegangen. Da die Dauer der Batcharbeitslast einer pro Tag wird die monatliche Shuffle-Speicherrate durch 30 geteilt.
Wenn die interaktive Arbeitslast von Dataproc Serverless for Spark mit 12 DCUs ausgeführt wird
(spark.driver.cores=4
,spark.executor.cores=4
,spark.executor.instances=2
)
für 24 Stunden in der Region us-central1
und verbraucht 25 GB Shuffle-Speicher.
wird wie folgt berechnet:
Total compute cost = 12 * 24 * $0.089000 = $25.632 Total storage cost = 25 * ($0.040/301) = $0.03 ------------------------------------------------ Total cost = $25.632 + $0.03 = $25.662
Hinweise:
- Im Beispiel wird von einem Monat mit 30 Tagen ausgegangen. Da die Dauer der Batcharbeitslast einer pro Tag wird die monatliche Shuffle-Speicherrate durch 30 geteilt.
Beispiel für eine Preisschätzung
Wenn eine Batcharbeitslast abgeschlossen ist, berechnet Dataproc Serverless for Spark
UsageMetrics:
die eine Schätzung der gesamten DCU, des Beschleunigers und des Shuffle-Vorgangs enthalten.
Speicherressourcen, die von der abgeschlossenen Arbeitslast verbraucht wurden. Nach dem Ausführen einer Arbeitslast
können Sie den gcloud dataproc batches describe BATCH_ID
ausführen,
Befehl, um Messwerte zur Arbeitslastnutzung aufzurufen, mit denen Sie die Ausführungskosten schätzen können
die Arbeitsbelastung.
Beispiel:
Dataproc Serverless for Spark führt eine Arbeitslast auf einem sitzungsspezifischen Cluster mit
einem Master und zwei Workern. Jeder Knoten verbraucht 4 DCUs (Standardwert: 4 DCUs pro
Core – siehe spark.dataproc.driver.disk.size
)
und 400 GB Shuffle-Speicher
(Standardeinstellung: 100 GB pro Kern – siehe
spark.driver.cores
).
Die Arbeitslastlaufzeit beträgt 60 Sekunden. Außerdem hat jeder Worker insgesamt 1 GPU
im gesamten Cluster.
Der Nutzer führt gcloud dataproc batches describe BATCH_ID --region REGION
aus
um Nutzungsmesswerte abzurufen. Die Befehlsausgabe enthält das folgende Snippet
(milliDcuSeconds
: 4 DCUs x 3 VMs x 60 seconds x 1000
=
720000
, milliAcceleratorSeconds
: 1 GPU x 2 VMs x 60 seconds x 1000
=
120000
und shuffleStorageGbSeconds
: 400GB x 3 VMs x 60 seconds
= 72000
):
runtimeInfo: approximateUsage: milliDcuSeconds: '720000' shuffleStorageGbSeconds: '72000' milliAcceleratorSeconds: '120000'
Nutzung anderer Google Cloud-Ressourcen
Ihre Dataproc Serverless for Spark-Arbeitslast kann optional die die folgenden Ressourcen mit eigenem Preismodell in Rechnung gestellt werden, einschließlich, aber nicht beschränkt auf:
Nächste Schritte
- Lesen Sie die Dataproc Serverless-Dokumentation.
- Erste Schritte mit Dataproc Serverless.
- Preisrechner ausprobieren