|

Dataproc Serverless – Preise

Die Preise für Dataproc Serverless for Spark basieren auf der Anzahl der Data Compute Units (DCU), der Anzahl der verwendeten Beschleuniger und der Menge des verwendeten Shuffle-Speichers. Datenverarbeitungseinheiten, Beschleuniger und Shuffle-Speicher werden pro Sekunde abgerechnet, wobei die Mindestdauer für Datenverarbeitungseinheiten und Shuffle-Speicher 1 Minute und für Beschleuniger 5 Minuten beträgt.

Jede Dataproc-vCPU zählt als 0,6 DCU. RAM wird unter und über 8 GB unterschiedlich berechnet. Jedes Gigabyte RAM unter 8 GB pro vCPU zählt als 0,1 DCU und jedes Gigabyte RAM über 8 GB pro vCPU als 0,2 DCU. Der von Spark-Treibern und Executors genutzte Arbeitsspeicher und die Systemspeichernutzung werden zur DCU-Nutzung gezählt.

Standardmäßig verbraucht jede Dataproc Serverless-Instanz für Spark-Batch- und interaktive Arbeitslasten für die Dauer der Arbeitslast mindestens 12 DCU: Der Treiber verwendet 4 vCPUs und 16 GB RAM und verbraucht 4 DCU, und jeder der 2 Executoren verwendet 4 vCPUs und 16 GB RAM und verbraucht ebenfalls 4 DCU. Sie können die Anzahl der vCPUs und die Speicherkapazität pro vCPU anpassen, indem Sie Spark-Eigenschaften festlegen. Es fallen keine zusätzlichen Gebühren für Compute Engine-VMs oder Persistent Disks an.

Preise für Data Compute Unit (DCU)

Die unten angegebene DCU-Rate ist eine Stundenrate. Die Abrechnung erfolgt pro Sekunde, mit einer Mindestnutzungsdauer von einer Minute. Wenn Sie nicht in US-Dollar bezahlen, werden die Preise in Ihrer Währung Cloud Platform-SKUs angewendet werden.

Dataproc Serverless für interaktive Spark-Arbeitslasten wird zum Premium-Preis abgerechnet.

Preise für Shuffle-Speicherplatz

Die unten angegebene Shuffle-Speicherrate ist eine monatliche Rate. Die Gebühren werden pro Sekunde abgerechnet, mit einer Mindestdauer von 1 Minute für Standard-Shuffle-Speicher und 5 Minuten für Premium-Shuffle-Speicher. Premium Shuffle-Speicher kann nur mit Premium-Compute-Einheit verwendet werden.

Wenn Sie nicht in US-Dollar bezahlen, werden die Preise in Ihrer Währung Cloud Platform-SKUs angewendet werden.

Preise für Beschleuniger

Die unten angegebene Beschleunigungsrate ist eine Stundenrate. Die Gebühren werden pro Sekunde abgerechnet, mit einer Mindestdauer von 5 Minuten. Wenn Sie nicht in US-Dollar bezahlen, werden die Preise in Ihrer Währung Cloud Platform-SKUs angewendet werden.

Preisbeispiel

Wenn die Dataproc Serverless for Spark-Batch-Arbeitslast mit 12 DCU (spark.driver.cores=4,spark.executor.cores=4,spark.executor.instances=2) 24 Stunden lang in der Region us-central1 ausgeführt wird und 25 GB Shuffle-Speicherplatz verbraucht, sieht die Preisberechnung wie folgt aus:

Total compute cost = 12 * 24 * $0.060000 = $17.28
Total storage cost = 25 * ($0.040/301) = $0.03
------------------------------------------------
Total cost = $17.28 + $0.03 = $17.31

Hinweise:

  1. Im Beispiel wird von einem Monat mit 30 Tagen ausgegangen. Da die Dauer der Batch-Arbeitslast einen Tag beträgt, wird die monatliche Shuffle-Speicherrate durch 30 geteilt.

Wenn die Dataproc Serverless for Spark Batch-Arbeitslast mit 12 DCU und 2 L4-GPUs (spark.driver.cores=4,spark.executor.cores=4, spark.executor.instances=2,spark.dataproc.driver.compute.tier=premium, spark.dataproc.executor.compute.tier=premium, spark.dataproc.executor.disk.tier=premium, spark.dataproc.executor.resource.accelerator.type=l4) 24 Stunden lang in der Region us-central1 ausgeführt wird und 25 GB Shuffle-Speicher verbraucht, sieht die Preisberechnung wie folgt aus.

Total compute cost = 12 * 24 * $0.089000 = $25.632
Total storage cost = 25 * ($0.1/301) = $0.083
Total accelerator cost = 2 * 24 * $0.6720 = $48.39
------------------------------------------------
Total cost = $25.632 + $0.083 + $48.39 = $74.105

Hinweise:

  1. Im Beispiel wird von einem Monat mit 30 Tagen ausgegangen. Da die Dauer der Batch-Arbeitslast einen Tag beträgt, wird die monatliche Shuffle-Speicherrate durch 30 geteilt.

Wenn die interaktive Arbeitslast von Dataproc Serverless for Spark mit 12 DCU (spark.driver.cores=4,spark.executor.cores=4,spark.executor.instances=2) 24 Stunden lang in der Region us-central1 ausgeführt wird und 25 GB Shuffle-Speicher verbraucht, erfolgt die Preisberechnung wie folgt:

Total compute cost = 12 * 24 * $0.089000 = $25.632
Total storage cost = 25 * ($0.040/301) = $0.03
------------------------------------------------
Total cost = $25.632 + $0.03 = $25.662

Hinweise:

  1. Im Beispiel wird von einem Monat mit 30 Tagen ausgegangen. Da die Dauer der Batch-Arbeitslast einen Tag beträgt, wird die monatliche Shuffle-Speicherrate durch 30 geteilt.

Beispiel für Preisschätzung

Wenn eine Batcharbeitslast abgeschlossen ist, berechnet Dataproc Serverless for Spark UsageMetrics, die eine Näherung an die Gesamtzahl der von der abgeschlossenen Arbeitslast verbrauchten DCU-, Beschleuniger- und Shuffle-Speicherressourcen enthalten. Nach der Ausführung einer Arbeitslast können Sie den Befehl gcloud dataproc batches describe BATCH_ID ausführen, um Messwerte zur Arbeitslastnutzung anzuzeigen, anhand derer Sie die Kosten für die Ausführung der Arbeitslast schätzen können.

Beispiel:

Dataproc Serverless for Spark führt eine Arbeitslast auf einem temporären Cluster mit einem Master und zwei Workern aus. Jeder Knoten verbraucht 4 DCU (Standard: 4 DCU pro Kern, siehe spark.dataproc.driver.disk.size) und 400 GB Shuffle-Speicher (Standard: 100 GB pro Kern, siehe spark.driver.cores). Die Laufzeit des Arbeitsloads beträgt 60 Sekunden. Außerdem hat jeder Worker eine GPU, also insgesamt zwei im Cluster.

Der Nutzer führt gcloud dataproc batches describe BATCH_ID --region REGION aus, um Nutzungsmesswerte zu erhalten. Die Befehlsausgabe enthält den folgenden Ausschnitt: (milliDcuSeconds: 4 DCUs x 3 VMs x 60 seconds x 1000 = 720000, milliAcceleratorSeconds: 1 GPU x 2 VMs x 60 seconds x 1000 = 120000 und shuffleStorageGbSeconds: 400GB x 3 VMs x 60 seconds = 72000):

runtimeInfo:
  approximateUsage:
    milliDcuSeconds: '720000'
    shuffleStorageGbSeconds: '72000'
    milliAcceleratorSeconds: '120000'

Nutzung anderer Google Cloud-Ressourcen

Ihre Dataproc Serverless for Spark-Arbeitslast kann optional die folgenden Ressourcen verwenden. Jede Ressource verfügt über ein eigenes Preismodell:

Nächste Schritte

Individuelles Angebot einholen

Mit den „Pay as you go“-Preisen von Google Cloud bezahlen Sie nur für die Dienste, die Sie nutzen. Wenden Sie sich an unser Vertriebsteam, wenn Sie ein individuelles Angebot für Ihr Unternehmen erhalten möchten.
Vertrieb kontaktieren