|

Tarifs de Dataflow

Cette page décrit la tarification de Dataflow. Pour les autres produits, consultez la documentation sur les tarifs.

Pour savoir comment économiser 40% avec un engagement de trois ans ou 20% avec un engagement d'un an, consultez notre page Remises sur engagement d'utilisation (CUD).

Présentation

L'utilisation de Dataflow est facturée en fonction des ressources que vos jobs consomment. Selon le modèle de tarification que vous utilisez, les ressources sont mesurées et facturées différemment.

Ressources de calcul Dataflow Ressources de calcul Dataflow Prime
Unités de calcul de données (DCU)
(par lot et par flux)

Les autres ressources Dataflow facturées pour l'ensemble des jobs incluent les disques persistants, les GPU et les instantanés.

Les ressources d'autres services peuvent être utilisées pour le job Dataflow. Les services utilisés avec Dataflow peuvent inclure BigQuery, Pub/Sub, Cloud Storage et Cloud Logging, entre autres.

Bien que le tarif soit calculé sur une base horaire, l'utilisation de Dataflow est facturée par tranche d'une seconde, tâche par tâche. L'utilisation est indiquée en heures afin d'appliquer un tarif horaire à l'utilisation à la seconde près. Par exemple, 30 minutes correspondent à 0,5 heure. Les nœuds de calcul et les jobs peuvent consommer des ressources, tel que décrit dans les sections suivantes.

Les futures versions de Dataflow peuvent présenter des tarifs différents ou d'autres types de regroupement de services connexes.

Ressources de calcul Dataflow

La facturation Dataflow pour les ressources de calcul inclut les éléments suivants:

Pour en savoir plus sur les régions disponibles et leurs zones, consultez la page Régions et zones de Compute Engine.

Processeur et mémoire des nœuds de calcul

Chaque tâche Dataflow utilise au moins un nœud de calcul Dataflow. Le service Dataflow fournit deux types de nœuds de calcul : par lot et par flux. Les frais de service pour les nœuds de calcul par lot et par flux sont calculés différemment.

Les nœuds de calcul Dataflow consomment les ressources suivantes, qui sont chacune facturées à la seconde:

  • Processeur
  • Mémoire

Les nœuds de calcul par lot et par flux sont des ressources spécialisées qui utilisent Compute Engine. Toutefois, un job Dataflow n'entraîne pas de frais Compute Engine pour les ressources Compute Engine gérées par le service Dataflow. En revanche, les tarifs du service Dataflow couvrent l'utilisation de ces ressources Compute Engine.

Vous pouvez remplacer le nombre de nœuds de calcul par défaut pour une tâche. Si vous utilisez l'autoscaling, vous pouvez spécifier le nombre maximal de nœuds de calcul à allouer à un job. Les nœuds de calcul et les ressources associées sont ajoutés et supprimés automatiquement en fonction de l'activation de l'autoscaling.

En outre, vous pouvez utiliser les options de pipeline pour remplacer les paramètres par défaut des ressources (type de machine, type et taille du disque) allouées à chaque nœud de calcul et utiliser des GPU.

FlexRS

Dataflow propose une option avec des prix réduits pour le processeur et la mémoire dans le cadre du traitement par lot. La planification flexible des ressources (FlexRS) regroupe des VM classiques et préemptives dans un seul pool de nœuds de calcul Dataflow, ce qui permet aux utilisateurs d'accéder à des ressources de traitement moins coûteuses. FlexRS peut également retarder l'exécution d'une tâche par lot Dataflow dans un intervalle de temps de six heures, afin de déterminer le meilleur moment pour démarrer la tâche en fonction des ressources disponibles.

Bien que Dataflow utilise une combinaison de nœuds de calcul pour exécuter un job FlexRS, vous êtes facturé à un tarif réduit uniforme (d'environ 40 %) sur le coût du processeur et de la mémoire, comparé aux prix standards de Dataflow, quel que soit le type de nœud de calcul. Pour demander à Dataflow d'utiliser FlexRS pour vos pipelines par lot avec autoscaling, vous devez spécifier le paramètre FlexRS.

Données Dataflow Shuffle traitées

Pour les pipelines par lot, Dataflow propose la fonctionnalité Dataflow Shuffle hautement évolutive, qui brasse les données en dehors des nœuds de calcul. Pour en savoir plus, consultez la page Dataflow Shuffle.

Dataflow Shuffle est facturé selon le volume de données traitées lors du tri.

Tarifs de Streaming Engine

Pour les pipelines de flux de données, Dataflow Streaming Engine déplace le traitement du brassage et de l'état des flux de données depuis les VM de nœud de calcul vers le backend du service Dataflow. Pour en savoir plus, consultez la page Streaming Engine.

Unités de calcul Streaming Engine

Avec la facturation basée sur les ressources, les ressources Streaming Engine sont mesurées en unités de calcul Streaming Engine. Dataflow mesure les ressources Streaming Engine utilisées par chaque job, puis effectue la facturation en fonction du nombre total de ressources utilisées par ce job. Pour activer la facturation basée sur les ressources pour votre job, consultez la section Utiliser la facturation basée sur les ressources. Lorsque vous utilisez la facturation basée sur les ressources, les remises existantes sont automatiquement appliquées.

Lorsque vous utilisez Dataflow Prime avec la facturation basée sur les ressources, vous êtes facturé en fonction de l'ensemble des ressources utilisées par chaque job, mais le SKU Unité de calcul des données (DCU) est utilisé à la place du SKU d'unité de calcul de Streaming Engine.

Données Streaming Engine traitées (ancienne version)

Dataflow continue de prendre en charge la facturation par données traitées (ancienne version). À moins que vous n'activiez la facturation basée sur les ressources, les jobs sont facturés à l'aide de la facturation par données traitées.

La facturation des données traitées par Streaming Engine mesure l'utilisation en fonction du volume de données par flux traitées, qui dépend des facteurs suivants:

  • Le volume de données ingérées dans votre pipeline de traitement par flux
  • La complexité du pipeline
  • Nombre d'étapes de pipeline avec une opération de mélange ou avec des DoFns avec état

Voici quelques exemples d'éléments qui comptent comme un octet traité:

  • Flux d'entrée provenant de sources de données
  • Flux de données d'une étape de pipeline fusionné vers une autre étape fusionnée
  • Flux de données persistés dans un état défini par l'utilisateur ou utilisés pour la mise en fenêtre
  • Émettre des messages vers des récepteurs de données, tels que Pub/Sub ou BigQuery

Tarifs des ressources de calcul Dataflow : lot et FlexRS

Le tableau suivant contient des détails sur les tarifs des ressources de nœud de calcul et des données de mélange traitées pour les jobs par lot et FlexRS.

1 Valeurs par défaut d'un nœud de calcul par lot: 1 processeur virtuel, 3,75 Go de mémoire, disque persistant de 250 Go si le mélange de Dataflow n'est pas utilisé, disque persistant de 25 Go si le Dataflow Shuffle est utilisé

2 Valeurs par défaut d'un nœud de calcul FlexRS : 2 processeurs virtuels, 7,50 Go de mémoire, disque persistant de 25 Go par nœud de calcul, avec 2 nœuds de calcul au minimum

Tarifs des ressources de calcul Dataflow : flux de données

Le tableau suivant contient des informations sur les tarifs des ressources de nœuds de calcul, des données traitées par Streaming Engine (ancienne version) et des unités de calcul de Streaming Engine pour les jobs de traitement de flux.

Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des SKU de Cloud Platform s'appliquent.

3 Valeurs par défaut d'un nœud de calcul par flux: 4 processeurs virtuels, 15 Go de mémoire, disque persistant de 400 Go si vous n'utilisez pas Streaming Engine, ou disque persistant de 30 Go si vous utilisez Streaming Engine. Le service Dataflow est actuellement limité à 15 disques persistants par instance de nœud de calcul lors de l'exécution d'un job de traitement par flux. L'allocation minimale de ressources est un ratio de 1:1 entre les nœuds de calcul et les disques.

4 Les tarifs de Dataflow Shuffle reposent sur les ajustements de volume appliqués à la quantité de données traitées au cours des opérations de lecture et d'écriture lors du brassage de votre ensemble de données. Pour en savoir plus, consultez la section Détails des tarifs de Dataflow Shuffle. La tarification de Dataflow Shuffle ne s'applique pas aux jobs Streaming Engine qui utilisent la facturation basée sur les ressources.

5 unités de calcul Streaming Engine: pour les jobs par flux qui utilisent Streaming Engine et le modèle de facturation basée sur les ressources. Ces tâches ne sont pas facturées pour les données traitées lors du mélange.

Ajustements de volume pour les données Dataflow Shuffle traitées

Les frais sont calculés pour chaque job Dataflow, par le biais d'ajustements de volume appliqués à la quantité totale de données traitées lors des opérations Dataflow Shuffle. Votre facture réelle liée aux données traitées par Dataflow Shuffle correspond à un volume de données plus faible (et à plein tarif) que le volume de données réellement traitées par une tâche Dataflow. La différence repose sur le fait que le volume facturable de données traitées par le shuffle est inférieur au volume total de données traitées par le shuffle.

Vous trouverez les explications sur ces ajustements dans le tableau suivant :

Données Dataflow Shuffle traitées Ajustement de facturation
250 premiers Go Réduction de 75 %
4 870 Go suivants Réduction de 50 %
Données restantes au-delà de 5 120 Go (5 To) aucun

Ainsi, si votre pipeline génère 1 024 Go (1 To) de données traitées par Dataflow Shuffle, le montant facturable est calculé comme suit:

250 GB * 25% + 774 GB * 50% = 449.5 GB * regional Dataflow Shuffle data processing rate

Si votre pipeline génère 10 240 Go (10 To) de données traitées par Dataflow Shuffle, le montant facturable est calculé comme suit:

250 GB * 25% + 4870 GB * 50% + 5120 GB = 7617.5 GB

Tarifs des ressources de calcul Dataflow Prime

Dataflow Prime est une plate-forme de traitement des données qui s'appuie sur Dataflow pour améliorer l'utilisation des ressources et les diagnostics distribués.

Les ressources de calcul utilisées par un job Dataflow Prime sont facturées en fonction du nombre d'unités de calcul des données (DCU). Les DCU représentent les ressources de calcul allouées à l'exécution de votre pipeline. Les autres ressources Dataflow utilisées par les jobs Dataflow Prime, comme les disques persistants, les GPU et les instantanés, sont facturées séparément.

Pour en savoir plus sur les régions disponibles et leurs zones, consultez la page Régions et zones de Compute Engine.

Unité de calcul des données

Une unité de calcul des données (DCU, Data Compute Unit) est une unité de mesure de l'utilisation de Dataflow qui suit le nombre de ressources de calcul consommées par vos jobs. Les ressources suivies par les DCU incluent les vCPU, la mémoire, les données Dataflow Shuffle traitées (pour les jobs par lot) et les données Streaming Engine traitées (pour les jobs par flux). L'utilisation des ressources DCU sera plus élevée pour les jobs qui consomment plus de ressources. Une DCU est comparable aux ressources utilisées par un job Dataflow exécuté pendant une heure sur un nœud de calcul de 1 vCPU et 4 Go.

Facturation des unités de calcul de données

Vous êtes facturé pour le nombre total de DCU consommés par votre job. Le prix d'une seule DCU varie en fonction du type de tâche (par lot ou par flux). Lorsque vous utilisez Dataflow Prime avec la facturation basée sur les ressources, vous êtes facturé en fonction de l'ensemble des ressources utilisées, et non en fonction des octets traités.

Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des SKU de Cloud Platform s'appliquent.

Optimiser l'utilisation des Data Compute Units

Vous ne pouvez pas définir le nombre de DCU pour vos jobs. Les DCU sont comptabilisées par Dataflow Prime. Toutefois, vous pouvez réduire le nombre de DCU utilisées en gérant les aspects suivants de votre job:

  • Réduire la consommation de mémoire
  • Réduction de la quantité de données traitées lors des étapes de brassage à l'aide de filtres, de combinaisons et de codeurs efficaces

Pour identifier ces optimisations, utilisez l'interface de surveillance de Dataflow et l'interface des détails de l'exécution.

En quoi la tarification de Dataflow Prime diffère-t-elle de celle de Dataflow ?

Dans Dataflow, les ressources disparates utilisées par vos jobs vous sont facturées : processeurs virtuels, mémoire, disque persistant et quantité de données traitées par Dataflow Shuffle ou Streaming Engine.

Les unités de calcul de données regroupent toutes les ressources, à l'exception du stockage, en une seule unité de mesure. Vous êtes facturé pour les ressources de disque persistant et pour le nombre de DCU consommés en fonction du type de job (par lot ou par flux). Pour en savoir plus, consultez la page Utiliser Dataflow Prime.

Que deviendront mes jobs existants qui utilisent le modèle de tarification Dataflow ?

Vos jobs par lot et par flux existants continueront d'être facturés selon le modèle Dataflow. Lorsque vous mettrez à jour vos jobs pour qu'ils utilisent Dataflow Prime, ils utiliseront le modèle de tarification de Dataflow Prime, qui facture les ressources de disque persistant et les DCU consommées.

Autres ressources Dataflow

Le stockage, les GPU, les instantanés et les autres ressources sont facturés de la même manière pour Dataflow et Dataflow Prime.

Tarifs des ressources de stockage

Les ressources de stockage sont facturées au même tarif pour les jobs de traitement par flux, par lot et FlexRS. Vous pouvez utiliser les options de pipeline pour modifier la taille ou le type de disque par défaut. Dataflow Prime facture le disque persistant séparément, selon les tarifs indiqués dans le tableau suivant.

Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des SKU de Cloud Platform s'appliquent.

Le service Dataflow est actuellement limité à 15 disques persistants par instance de nœud de calcul lors de l'exécution d'un job de traitement par flux. Chaque disque persistant est local sur une machine virtuelle Compute Engine individuelle. L'allocation minimale de ressources est un ratio de 1:1 entre les nœuds de calcul et les disques.

Les jobs utilisant Streaming Engine nécessitent des disques de démarrage de 30 Go. Les jobs qui utilisent Dataflow Shuffle nécessitent des disques de démarrage de 25 Go. Pour les jobs qui n'utilisent pas ces offres, la taille par défaut de chaque disque persistant est de 250 Go en mode de traitement par lot et de 400 Go en mode de traitement par flux.

L'utilisation de Compute Engine est basée sur le nombre moyen de nœuds de calcul, tandis que l'utilisation des disques persistants est basée sur la valeur exacte de --maxNumWorkers. Les disques persistants sont redistribués de manière à ce que chaque nœud de calcul ait un nombre égal de disques associés.

Tarifs des ressources GPU

Les ressources GPU sont facturées au même tarif pour les jobs de traitement par flux et par lot. Flex RS n'est actuellement pas compatible avec les GPU. Pour en savoir plus sur les régions et les zones disponibles pour les GPU, consultez la page Disponibilité des GPU dans les régions et zones de la documentation Compute Engine.

Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des SKU de Cloud Platform s'appliquent.

Instantanés

Pour vous aider à gérer la fiabilité de vos pipelines de traitement par flux continu, vous pouvez utiliser des instantanés afin d'enregistrer et de restaurer l'état de votre pipeline. L'utilisation des instantanés est facturée en fonction du volume de données stockées, qui dépend des facteurs suivants:

  • Le volume de données ingérées dans votre pipeline de traitement par flux
  • Votre logique de fenêtrage
  • Le nombre d'étapes du pipeline

Vous pouvez prendre un instantané de votre job par flux à l'aide de la console Dataflow ou de la Google Cloud CLI. La création d'une tâche à partir de votre instantané n'entraîne aucuns frais supplémentaires pour restaurer l'état du pipeline. Pour en savoir plus, consultez la page Utiliser des instantanés Dataflow.

Tarifs applicables aux instantanés

Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des SKU de Cloud Platform s'appliquent.

Confidential VM

Confidential VMs pour Dataflow chiffre les données utilisées sur les VM Compute Engine de type worker. Pour en savoir plus, consultez la page Présentation de Confidential VM.

L'utilisation de Confidential VMs pour Dataflow entraîne des coûts forfaitaires supplémentaires par vCPU et par Go.

Tarifs de Confidential VM

Les tarifs sont globaux et ne varient pas en fonction de la région Google Cloud.

Ressources non Dataflow

En plus de l'utilisation de Dataflow, un job peut consommer les ressources suivantes, chacune faisant l'objet d'une facturation spécifique, y compris, mais sans s'y limiter:

Afficher l'utilisation des ressources

Vous pouvez consulter le nombre total de vCPU, de mémoire et de disques persistants associés à un job dans le panneau Infos sur le job, sous Métriques des ressources. Vous pouvez suivre les métriques suivantes dans l'interface de surveillance de Dataflow:

  • Temps total de processeurs virtuels
  • Temps d'utilisation total de la mémoire
  • Temps d'utilisation total du disque persistant
  • Volume total de flux de données traités
  • Volume total des données traitées par Shuffle
  • Volume facturable des données traitées par Shuffle

Vous pouvez utiliser la métrique Total shuffle data processed (Données de shuffle traitées au total) pour évaluer les performances de votre pipeline. Quant à la métrique Billable shuffle data processed (Données de shuffle traitées facturables), elle vous permet de déterminer les coûts du job Dataflow.

Pour Dataflow Prime, vous pouvez consulter le nombre total d'UCD consommées par un job dans le panneau Infos sur le job, sous Métriques des ressources.

Simulateur de coût

Le Simulateur de coût vous permet de comprendre les modalités de calcul de votre facture.

Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des SKU de Cloud Platform s'appliquent.

Étape suivante

Demander un devis personnalisé

Avec le paiement à l'usage de Google Cloud, vous ne payez que pour les services que vous utilisez. Contactez notre équipe commerciale pour obtenir un devis personnalisé pour votre entreprise.
Contacter le service commercial