Tarifs de Dataproc sans serveur

Les tarifs de Dataproc sans serveur pour Spark sont basés sur le nombre d'unités de calcul de données (DCU), le nombre d'accélérateurs utilisés et la quantité de stockage aléatoire utilisée. Les DCU, les accélérateurs et le stockage aléatoire sont facturés à la seconde, avec des frais minimaux d'une minute pour les DCU et le stockage aléatoire, et des frais minimaux de cinq minutes pour les accélérateurs.

Chaque vCPU Dataproc compte comme 0,6 DCU. La RAM est facturée différemment en dessous et au-dessus de 8 Go. Chaque gigaoctet de RAM inférieur à 8 Go par processeur virtuel compte comme 0,1 DCU, et chaque gigaoctet de RAM au-delà de 8 Go par processeur virtuel compte comme 0,2 DCU. La mémoire utilisée par les pilotes et les exécuteurs Spark et l'utilisation de la mémoire système sont comptabilisées dans l'utilisation des unités de calcul de données.

Par défaut, chaque charge de travail par lot et interactive Dataproc sans serveur pour Spark utilise au moins 12 dCU pendant la durée de la charge de travail: le pilote utilise 4 processeurs virtuels et 16 Go de RAM, et consomme quatre unités de calcul de données, et chacun des deux exécuteurs utilise quatre processeurs virtuels et 16 Go de RAM, et consomme quatre unités de calcul de données. Vous pouvez personnaliser le nombre de processeurs virtuels et la quantité de mémoire par processeur virtuel en définissant les propriétés Spark. Aucuns frais supplémentaires pour la VM Compute Engine ou le disque persistant ne s'appliquent.

Tarifs des unités de calcul de données (DCU)

Le taux DCU ci-dessous est un taux horaire. Il est calculé au prorata et facturé à la seconde, avec des frais minimaux d'une minute si vous utilisez le brassage standard, et des frais minimaux de cinq minutes si vous utilisez le stockage aléatoire Premium. Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des SKU Cloud Platform s'appliquent.

La charge de travail interactive Dataproc sans serveur pour Spark est facturée au tarif Premium.

Tarifs du stockage aléatoire

Le tarif de stockage aléatoire indiqué ci-dessous est facturé mensuellement. Il est calculé au prorata et facturé à la seconde, avec des frais minimaux d'une minute pour le stockage aléatoire standard et de cinq minutes pour le stockage aléatoire Premium. Le stockage aléatoire premium ne peut être utilisé qu'avec l'unité de calcul Premium.

Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des SKU Cloud Platform s'appliquent.

Tarifs des accélérateurs

Le taux d'accélérateur indiqué ci-dessous est exprimé par heure. Il est calculé au prorata et facturé à la seconde, avec un minimum de cinq minutes. Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des SKU Cloud Platform s'appliquent.

Exemple de tarification

Si la charge de travail par lot Dataproc sans serveur pour Spark s'exécute avec 12 dCU (spark.driver.cores=4, spark.executor.cores=4 et spark.executor.instances=2) pendant 24 heures dans la région us-central1 et consomme 25 Go de stockage aléatoire, le calcul du prix est le suivant.

Total compute cost = 12 * 24 * $0.060000 = $17.28
Total storage cost = 25 * ($0.040/301) = $0.03
------------------------------------------------
Total cost = $17.28 + $0.03 = $17.31

Remarques :

  1. Cet exemple suppose un mois de 30 jours. Étant donné que la durée de la charge de travail par lot est d'une journée, le taux de stockage aléatoire mensuel est divisé par 30.

Si la charge de travail par lot Dataproc sans serveur pour Spark s'exécute avec 12 DCU et 2 GPU L4 (spark.driver.cores=4,spark.executor.cores=4, spark.executor.instances=2,spark.dataproc.driver.compute.tier=premium, spark.dataproc.executor.compute.tier=premium, spark.dataproc.executor.disk.tier=premium, spark.dataproc.executor.resource.accelerator.type=l4) pendant 24 heures dans la région us-central1 et utilise 25 Go de stockage aléatoire, le calcul du prix est le suivant.

Total compute cost = 12 * 24 * $0.089000 = $25.632
Total storage cost = 25 * ($0.1/301) = $0.083
Total accelerator cost = 2 * 24 * $0.6720 = $48.39
------------------------------------------------
Total cost = $25.632 + $0.083 + $48.39 = $74.105

Remarques :

  1. Cet exemple suppose un mois de 30 jours. Étant donné que la durée de la charge de travail par lot est d'une journée, le taux de stockage aléatoire mensuel est divisé par 30.

Si la charge de travail interactive Dataproc sans serveur pour Spark s'exécute avec 12 dCU (spark.driver.cores=4,spark.executor.cores=4,spark.executor.instances=2) pendant 24 heures dans la région us-central1 et consomme 25 Go de stockage aléatoire, le calcul du prix est le suivant:

Total compute cost = 12 * 24 * $0.089000 = $25.632
Total storage cost = 25 * ($0.040/301) = $0.03
------------------------------------------------
Total cost = $25.632 + $0.03 = $25.662

Remarques :

  1. Cet exemple suppose un mois de 30 jours. Étant donné que la durée de la charge de travail par lot est d'une journée, le taux de stockage aléatoire mensuel est divisé par 30.

Exemple d'estimation du prix

Lorsqu'une charge de travail par lot est terminée, Dataproc sans serveur pour Spark calcule UsageMetrics, qui contient une approximation du total des ressources de stockage DCU, d'accélérateur et de brassage consommées par la charge de travail terminée. Après avoir exécuté une charge de travail, vous pouvez exécuter la commande gcloud dataproc batches describe BATCH_ID pour afficher les métriques d'utilisation de la charge de travail afin de vous aider à estimer le coût d'exécution de la charge de travail.

Exemple :

Dataproc sans serveur pour Spark exécute une charge de travail sur un cluster éphémère avec un nœud maître et deux nœuds de calcul. Chaque nœud consomme 4 DCU (la valeur par défaut est 4 DCU par cœur ; voir spark.dataproc.driver.disk.size) et 400 Go de stockage aléatoire (100 Go par cœur par défaut ; voir spark.driver.cores). La durée d'exécution de la charge de travail est de 60 secondes. En outre, chaque nœud de calcul dispose d'un GPU, soit deux au total dans le cluster.

L'utilisateur exécute gcloud dataproc batches describe BATCH_ID --region REGION pour obtenir des métriques d'utilisation. Le résultat de la commande inclut l'extrait suivant (milliDcuSeconds: 4 DCUs x 3 VMs x 60 seconds x 1000 = 720000, milliAcceleratorSeconds: 1 GPU x 2 VMs x 60 seconds x 1000 = 120000 et shuffleStorageGbSeconds: 400GB x 3 VMs x 60 seconds = 72000):

runtimeInfo:
  approximateUsage:
    milliDcuSeconds: '720000'
    shuffleStorageGbSeconds: '72000'
    milliAcceleratorSeconds: '120000'

Utilisation d'autres ressources Google Cloud

Votre charge de travail Dataproc sans serveur pour Spark peut éventuellement utiliser les ressources suivantes, chacune faisant l'objet d'une facturation spécifique, y compris, mais sans s'y limiter:

Étapes suivantes

Demander un devis personnalisé

Avec le paiement à l'usage de Google Cloud, vous ne payez que pour les services que vous utilisez. Contactez notre équipe commerciale pour obtenir un devis personnalisé pour votre entreprise.
Contacter le service commercial