Preços do Dataproc sem servidor

Os preços do Dataproc sem servidor para Spark são baseados no número Unidades (DCUs), o número de aceleradores usados e a quantidade de armazenamento de embaralhamento usados. DCUs, aceleradores e armazenamento de embaralhamento são cobrados por segundo, com uma Cobrança mínima de um minuto para DCUs e armazenamento de embaralhamento e um mínimo de cinco minutos cobramos por aceleradores.

Cada vCPU do Dataproc conta como 0,6 DCU. A RAM é carregada de maneira diferente abaixo e acima de 8 GB. Cada gigabyte de RAM abaixo de 8G gigabyte por vCPU conta como 0,1 DCU, e cada gigabyte de RAM acima de 8G gigabyte por vCPU conta como 0,2 DCU. A memória usada por drivers e executores do Spark e o uso de memória do sistema são contabilizados em relação ao uso de DCUs.

Por padrão, cada carga de trabalho interativa e em lote do Dataproc Serverless for Spark consumir no mínimo 12 DCUs durante a carga de trabalho: o driver usa 4 vCPUs e 16 GB de RAM e consome 4 DCUs, e cada um dos 2 executores usa 4 vCPUs, 16 GB de RAM e consome 4 DCUs. É possível personalizar o número de vCPUs e a quantidade de memória por vCPU, definindo Propriedades do Spark. Nenhuma cobrança extra de VM ou Persistent Disk do Compute Engine se aplica.

Preços da unidade de computação de dados (DCU)

A taxa de DCU mostrada abaixo é uma taxa por hora. Ele é proporcional e faturado conforme com uma carga mínima de 1 minuto. Se você fizer pagamentos em uma moeda que não seja o dólar americano, os preços listados na sua moeda em SKUs do Cloud Platform se aplicam.

A carga de trabalho interativa do Dataproc Serverless para Spark é cobrada no Premium.

Preços do armazenamento do embaralhamento

A taxa de armazenamento de embaralhamento abaixo é uma taxa mensal. Ele é proporcional e cobrados por segundo, com uma cobrança mínima de um minuto pelo Standard Storage de embaralhamento. e uma cobrança mínima de cinco minutos pelo armazenamento de embaralhamento Premium. Modo aleatório premium só pode ser usado com a unidade de computação Premium.

Se você fizer pagamentos em uma moeda que não seja o dólar americano, os preços listados na sua moeda em SKUs do Cloud Platform se aplicam.

Preços do acelerador

A taxa do acelerador mostrada abaixo é por hora. Ele é proporcional e faturado conforme com uma carga mínima de 5 minutos. Se você fizer pagamentos em uma moeda que não seja o dólar americano, os preços listados na sua moeda em SKUs do Cloud Platform se aplicam.

Exemplo de preço

Se a carga de trabalho em lote do Dataproc sem servidor para Spark for executada com 12 DCUs (spark.driver.cores=4, spark.executor.cores=4 e spark.executor.instances=2) por 24 horas na região us-central1 e consome 25 GB de armazenamento embaralhado, para o cálculo de preço.

Total compute cost = 12 * 24 * $0.060000 = $17.28
Total storage cost = 25 * ($0.040/301) = $0.03
------------------------------------------------
Total cost = $17.28 + $0.03 = $17.31

Observações:

  1. No exemplo, consideramos um mês de 30 dias. Como a duração da carga de trabalho em lote é de um diária, a taxa de armazenamento de embaralhamento mensal é dividida por 30.

Se a carga de trabalho em lote do Dataproc sem servidor para Spark for executada com 12 DCUs e 2 GPUs L4 (spark.driver.cores=4,spark.executor.cores=4, spark.executor.instances=2, spark.dataproc.driver.compute.tier=premium e spark.dataproc.executor.compute.tier=premium, spark.dataproc.executor.disk.tier=premium, spark.dataproc.executor.resource.accelerator.type=l4) por 24 horas no na região us-central1 e consome 25 GB de embaralhamento, é o seguinte.

Total compute cost = 12 * 24 * $0.089000 = $25.632
Total storage cost = 25 * ($0.1/301) = $0.083
Total accelerator cost = 2 * 24 * $0.6720 = $48.39
------------------------------------------------
Total cost = $25.632 + $0.083 + $48.39 = $74.105

Observações:

  1. No exemplo, consideramos um mês de 30 dias. Como a duração da carga de trabalho em lote é de um diária, a taxa de armazenamento de embaralhamento mensal é dividida por 30.

Se a carga de trabalho interativa do Dataproc sem servidor para Spark for executada com 12 DCUs (spark.driver.cores=4, spark.executor.cores=4 e spark.executor.instances=2) por 24 horas na região us-central1 e consome 25 GB de armazenamento embaralhado, O cálculo do preço é o seguinte:

Total compute cost = 12 * 24 * $0.089000 = $25.632
Total storage cost = 25 * ($0.040/301) = $0.03
------------------------------------------------
Total cost = $25.632 + $0.03 = $25.662

Observações:

  1. No exemplo, consideramos um mês de 30 dias. Como a duração da carga de trabalho em lote é de um diária, a taxa de armazenamento de embaralhamento mensal é dividida por 30.

Exemplo de estimativa de preços

Quando uma carga de trabalho em lote é concluída, o Dataproc sem servidor para Spark calcula UsageMetrics, que contêm uma aproximação do total de DCU, acelerador e embaralhamento de armazenamento consumidos pela carga de trabalho concluída. Depois de executar uma carga de trabalho, execute o comando gcloud dataproc batches describe BATCH_ID para conferir as métricas de uso da carga de trabalho e estimar o custo de execução a carga de trabalho.

Exemplo:

O Dataproc Serverless para Spark executa uma carga de trabalho em um cluster temporário com um mestre e dois workers. Cada nó consome 4 DCUs (o padrão é 4 DCUs por principal (consulte spark.dataproc.driver.disk.size) e 400 GB de armazenamento embaralhado (o padrão é 100 GB por núcleo; consulte spark.driver.cores). O tempo de execução da carga de trabalho é de 60 segundos. Além disso, cada worker tem uma GPU no total de 2 em todo o cluster.

O usuário executa gcloud dataproc batches describe BATCH_ID --region REGION para acessar as métricas de uso. A resposta ao comando inclui o snippet a seguir (milliDcuSeconds: 4 DCUs x 3 VMs x 60 seconds x 1000 = 720000, milliAcceleratorSeconds: 1 GPU x 2 VMs x 60 seconds x 1000 = 120000 e shuffleStorageGbSeconds: 400GB x 3 VMs x 60 seconds = 72000):

runtimeInfo:
  approximateUsage:
    milliDcuSeconds: '720000'
    shuffleStorageGbSeconds: '72000'
    milliAcceleratorSeconds: '120000'

Uso de outros recursos do Google Cloud

Sua carga de trabalho do Dataproc Serverless para Spark pode usar a recursos a seguir, cada um faturado conforme o próprio preço, incluindo, mas não se limitando a:

A seguir

Solicite uma cotação personalizada

Com o sistema de pagamento por uso do Google Cloud, você paga apenas pelos serviços que usa. Entre em contato com nossa equipe de vendas e receba uma cotação personalizada para sua organização.
Entre em contato