Tarifs de Dataflow
Cette page décrit la tarification de Dataflow. Pour les autres produits, consultez la documentation sur les tarifs.
Pour savoir comment économiser 40% avec un engagement de trois ans ou 20% avec un engagement d'un an, consultez notre page Remises sur engagement d'utilisation (CUD).
Présentation
L'utilisation de Dataflow est facturée en fonction des ressources que vos jobs consomment. Selon le modèle de tarification que vous utilisez, les ressources sont mesurées et facturées différemment.
Ressources de calcul Dataflow | Ressources de calcul Dataflow Prime |
|
Unités de calcul de données (DCU) (par lot et par flux) |
Les autres ressources Dataflow facturées pour l'ensemble des jobs incluent les disques persistants, les GPU et les instantanés.
Les ressources d'autres services peuvent être utilisées pour le job Dataflow. Les services utilisés avec Dataflow peuvent inclure BigQuery, Pub/Sub, Cloud Storage et Cloud Logging, entre autres.
Bien que le tarif soit calculé sur une base horaire, l'utilisation de Dataflow est facturée par tranche d'une seconde, tâche par tâche. L'utilisation est indiquée en heures afin d'appliquer un tarif horaire à l'utilisation à la seconde près. Par exemple, 30 minutes correspondent à 0,5 heure. Les nœuds de calcul et les jobs peuvent consommer des ressources, tel que décrit dans les sections suivantes.
Les futures versions de Dataflow peuvent présenter des tarifs différents ou d'autres types de regroupement de services connexes.
Ressources de calcul Dataflow
La facturation Dataflow pour les ressources de calcul inclut les éléments suivants:
- Processeur et mémoire des nœuds de calcul
- Données Dataflow Shuffle traitées pour les charges de travail par lot
- Unités de calcul Streaming Engine
- Données Streaming Engine traitées
Pour en savoir plus sur les régions disponibles et leurs zones, consultez la page Régions et zones de Compute Engine.
Processeur et mémoire des nœuds de calcul
Chaque tâche Dataflow utilise au moins un nœud de calcul Dataflow. Le service Dataflow fournit deux types de nœuds de calcul : par lot et par flux. Les frais de service pour les nœuds de calcul par lot et par flux sont calculés différemment.
Les nœuds de calcul Dataflow consomment les ressources suivantes, qui sont chacune facturées à la seconde:
- Processeur
- Mémoire
Les nœuds de calcul par lot et par flux sont des ressources spécialisées qui utilisent Compute Engine. Toutefois, un job Dataflow n'entraîne pas de frais Compute Engine pour les ressources Compute Engine gérées par le service Dataflow. En revanche, les tarifs du service Dataflow couvrent l'utilisation de ces ressources Compute Engine.
Vous pouvez remplacer le nombre de nœuds de calcul par défaut pour une tâche. Si vous utilisez l'autoscaling, vous pouvez spécifier le nombre maximal de nœuds de calcul à allouer à un job. Les nœuds de calcul et les ressources associées sont ajoutés et supprimés automatiquement en fonction de l'activation de l'autoscaling.
En outre, vous pouvez utiliser les options de pipeline pour remplacer les paramètres par défaut des ressources (type de machine, type et taille du disque) allouées à chaque nœud de calcul et utiliser des GPU.
FlexRS
Dataflow propose une option avec des prix réduits pour le processeur et la mémoire dans le cadre du traitement par lot. La planification flexible des ressources (FlexRS) regroupe des VM classiques et préemptives dans un seul pool de nœuds de calcul Dataflow, ce qui permet aux utilisateurs d'accéder à des ressources de traitement moins coûteuses. FlexRS peut également retarder l'exécution d'une tâche par lot Dataflow dans un intervalle de temps de six heures, afin de déterminer le meilleur moment pour démarrer la tâche en fonction des ressources disponibles.
Bien que Dataflow utilise une combinaison de nœuds de calcul pour exécuter un job FlexRS, vous êtes facturé à un tarif réduit uniforme (d'environ 40 %) sur le coût du processeur et de la mémoire, comparé aux prix standards de Dataflow, quel que soit le type de nœud de calcul. Pour demander à Dataflow d'utiliser FlexRS pour vos pipelines par lot avec autoscaling, vous devez spécifier le paramètre FlexRS.
Données Dataflow Shuffle traitées
Pour les pipelines par lot, Dataflow propose la fonctionnalité Dataflow Shuffle hautement évolutive, qui brasse les données en dehors des nœuds de calcul. Pour en savoir plus, consultez la page Dataflow Shuffle.
Dataflow Shuffle est facturé selon le volume de données traitées lors du tri.
Tarifs de Streaming Engine
Pour les pipelines de flux de données, Dataflow Streaming Engine déplace le traitement du brassage et de l'état des flux de données depuis les VM de nœud de calcul vers le backend du service Dataflow. Pour en savoir plus, consultez la page Streaming Engine.
Unités de calcul Streaming Engine
Avec la facturation basée sur les ressources, les ressources Streaming Engine sont mesurées en unités de calcul Streaming Engine. Dataflow mesure les ressources Streaming Engine utilisées par chaque job, puis effectue la facturation en fonction du nombre total de ressources utilisées par ce job. Pour activer la facturation basée sur les ressources pour votre job, consultez la section Utiliser la facturation basée sur les ressources. Lorsque vous utilisez la facturation basée sur les ressources, les remises existantes sont automatiquement appliquées.
Lorsque vous utilisez Dataflow Prime avec la facturation basée sur les ressources, vous êtes facturé en fonction de l'ensemble des ressources utilisées par chaque job, mais le SKU Unité de calcul des données (DCU) est utilisé à la place du SKU d'unité de calcul de Streaming Engine.
Données Streaming Engine traitées (ancienne version)
Dataflow continue de prendre en charge la facturation par données traitées (ancienne version). À moins que vous n'activiez la facturation basée sur les ressources, les jobs sont facturés à l'aide de la facturation par données traitées.
La facturation des données traitées par Streaming Engine mesure l'utilisation en fonction du volume de données par flux traitées, qui dépend des facteurs suivants:
- Le volume de données ingérées dans votre pipeline de traitement par flux
- La complexité du pipeline
- Nombre d'étapes de pipeline avec une opération de mélange ou avec des DoFns avec état
Voici quelques exemples d'éléments qui comptent comme un octet traité:
- Flux d'entrée provenant de sources de données
- Flux de données d'une étape de pipeline fusionné vers une autre étape fusionnée
- Flux de données persistés dans un état défini par l'utilisateur ou utilisés pour la mise en fenêtre
- Émettre des messages vers des récepteurs de données, tels que Pub/Sub ou BigQuery
Tarifs des ressources de calcul Dataflow : lot et FlexRS
Le tableau suivant contient des détails sur les tarifs des ressources de nœud de calcul et des données de mélange traitées pour les jobs par lot et FlexRS.
1 Valeurs par défaut d'un nœud de calcul par lot: 1 processeur virtuel, 3,75 Go de mémoire, disque persistant de 250 Go si le mélange de Dataflow n'est pas utilisé, disque persistant de 25 Go si le Dataflow Shuffle est utilisé
2 Valeurs par défaut d'un nœud de calcul FlexRS : 2 processeurs virtuels, 7,50 Go de mémoire, disque persistant de 25 Go par nœud de calcul, avec 2 nœuds de calcul au minimum
Tarifs des ressources de calcul Dataflow : flux de données
Le tableau suivant contient des informations sur les tarifs des ressources de nœuds de calcul, des données traitées par Streaming Engine (ancienne version) et des unités de calcul de Streaming Engine pour les jobs de traitement de flux.
3 Valeurs par défaut d'un nœud de calcul par flux: 4 processeurs virtuels, 15 Go de mémoire, disque persistant de 400 Go si vous n'utilisez pas Streaming Engine, ou disque persistant de 30 Go si vous utilisez Streaming Engine. Le service Dataflow est actuellement limité à 15 disques persistants par instance de nœud de calcul lors de l'exécution d'un job de traitement par flux. L'allocation minimale de ressources est un ratio de 1:1 entre les nœuds de calcul et les disques.
4 Les tarifs de Dataflow Shuffle reposent sur les ajustements de volume appliqués à la quantité de données traitées au cours des opérations de lecture et d'écriture lors du brassage de votre ensemble de données. Pour en savoir plus, consultez la section Détails des tarifs de Dataflow Shuffle. La tarification de Dataflow Shuffle ne s'applique pas aux jobs Streaming Engine qui utilisent la facturation basée sur les ressources.
5 unités de calcul Streaming Engine: pour les jobs par flux qui utilisent Streaming Engine et le modèle de facturation basée sur les ressources. Ces tâches ne sont pas facturées pour les données traitées lors du mélange.
Ajustements de volume pour les données Dataflow Shuffle traitées
Les frais sont calculés pour chaque job Dataflow, par le biais d'ajustements de volume appliqués à la quantité totale de données traitées lors des opérations Dataflow Shuffle. Votre facture réelle liée aux données traitées par Dataflow Shuffle correspond à un volume de données plus faible (et à plein tarif) que le volume de données réellement traitées par une tâche Dataflow. La différence repose sur le fait que le volume facturable de données traitées par le shuffle est inférieur au volume total de données traitées par le shuffle.
Vous trouverez les explications sur ces ajustements dans le tableau suivant :
Données Dataflow Shuffle traitées | Ajustement de facturation |
250 premiers Go | Réduction de 75 % |
4 870 Go suivants | Réduction de 50 % |
Données restantes au-delà de 5 120 Go (5 To) | aucun |
Ainsi, si votre pipeline génère 1 024 Go (1 To) de données traitées par Dataflow Shuffle, le montant facturable est calculé comme suit:
250 GB * 25% + 774 GB * 50% = 449.5 GB * regional Dataflow Shuffle data processing rate
Si votre pipeline génère 10 240 Go (10 To) de données traitées par Dataflow Shuffle, le montant facturable est calculé comme suit:
250 GB * 25% + 4870 GB * 50% + 5120 GB = 7617.5 GB
Tarifs des ressources de calcul Dataflow Prime
Dataflow Prime est une plate-forme de traitement des données qui s'appuie sur Dataflow pour améliorer l'utilisation des ressources et les diagnostics distribués.
Les ressources de calcul utilisées par un job Dataflow Prime sont facturées en fonction du nombre d'unités de calcul des données (DCU). Les DCU représentent les ressources de calcul allouées à l'exécution de votre pipeline. Les autres ressources Dataflow utilisées par les jobs Dataflow Prime, comme les disques persistants, les GPU et les instantanés, sont facturées séparément.
Pour en savoir plus sur les régions disponibles et leurs zones, consultez la page Régions et zones de Compute Engine.
Unité de calcul des données
Une unité de calcul des données (DCU, Data Compute Unit) est une unité de mesure de l'utilisation de Dataflow qui suit le nombre de ressources de calcul consommées par vos jobs. Les ressources suivies par les DCU incluent les vCPU, la mémoire, les données Dataflow Shuffle traitées (pour les jobs par lot) et les données Streaming Engine traitées (pour les jobs par flux). L'utilisation des ressources DCU sera plus élevée pour les jobs qui consomment plus de ressources. Une DCU est comparable aux ressources utilisées par un job Dataflow exécuté pendant une heure sur un nœud de calcul de 1 vCPU et 4 Go.
Facturation des unités de calcul de données
Vous êtes facturé pour le nombre total de DCU consommés par votre job. Le prix d'une seule DCU varie en fonction du type de tâche (par lot ou par flux). Lorsque vous utilisez Dataflow Prime avec la facturation basée sur les ressources, vous êtes facturé en fonction de l'ensemble des ressources utilisées, et non en fonction des octets traités.
Optimiser l'utilisation des Data Compute Units
Vous ne pouvez pas définir le nombre de DCU pour vos jobs. Les DCU sont comptabilisées par Dataflow Prime. Toutefois, vous pouvez réduire le nombre de DCU utilisées en gérant les aspects suivants de votre job:
- Réduire la consommation de mémoire
- Réduction de la quantité de données traitées lors des étapes de brassage à l'aide de filtres, de combinaisons et de codeurs efficaces
Pour identifier ces optimisations, utilisez l'interface de surveillance de Dataflow et l'interface des détails de l'exécution.
En quoi la tarification de Dataflow Prime diffère-t-elle de celle de Dataflow ?
Dans Dataflow, les ressources disparates utilisées par vos jobs vous sont facturées : processeurs virtuels, mémoire, disque persistant et quantité de données traitées par Dataflow Shuffle ou Streaming Engine.
Les unités de calcul de données regroupent toutes les ressources, à l'exception du stockage, en une seule unité de mesure. Vous êtes facturé pour les ressources de disque persistant et pour le nombre de DCU consommés en fonction du type de job (par lot ou par flux). Pour en savoir plus, consultez la page Utiliser Dataflow Prime.
Que deviendront mes jobs existants qui utilisent le modèle de tarification Dataflow ?
Vos jobs par lot et par flux existants continueront d'être facturés selon le modèle Dataflow. Lorsque vous mettrez à jour vos jobs pour qu'ils utilisent Dataflow Prime, ils utiliseront le modèle de tarification de Dataflow Prime, qui facture les ressources de disque persistant et les DCU consommées.
Autres ressources Dataflow
Le stockage, les GPU, les instantanés et les autres ressources sont facturés de la même manière pour Dataflow et Dataflow Prime.
Tarifs des ressources de stockage
Les ressources de stockage sont facturées au même tarif pour les jobs de traitement par flux, par lot et FlexRS. Vous pouvez utiliser les options de pipeline pour modifier la taille ou le type de disque par défaut. Dataflow Prime facture le disque persistant séparément, selon les tarifs indiqués dans le tableau suivant.
Le service Dataflow est actuellement limité à 15 disques persistants par instance de nœud de calcul lors de l'exécution d'un job de traitement par flux. Chaque disque persistant est local sur une machine virtuelle Compute Engine individuelle. L'allocation minimale de ressources est un ratio de 1:1 entre les nœuds de calcul et les disques.
Les jobs utilisant Streaming Engine nécessitent des disques de démarrage de 30 Go. Les jobs qui utilisent Dataflow Shuffle nécessitent des disques de démarrage de 25 Go. Pour les jobs qui n'utilisent pas ces offres, la taille par défaut de chaque disque persistant est de 250 Go en mode de traitement par lot et de 400 Go en mode de traitement par flux.
L'utilisation de Compute Engine est basée sur le nombre moyen de nœuds de calcul, tandis que l'utilisation des disques persistants est basée sur la valeur exacte de --maxNumWorkers
. Les disques persistants sont redistribués de manière à ce que chaque nœud de calcul ait un nombre égal de disques associés.
Tarifs des ressources GPU
Les ressources GPU sont facturées au même tarif pour les jobs de traitement par flux et par lot. Flex RS n'est actuellement pas compatible avec les GPU. Pour en savoir plus sur les régions et les zones disponibles pour les GPU, consultez la page Disponibilité des GPU dans les régions et zones de la documentation Compute Engine.
Instantanés
Pour vous aider à gérer la fiabilité de vos pipelines de traitement par flux continu, vous pouvez utiliser des instantanés afin d'enregistrer et de restaurer l'état de votre pipeline. L'utilisation des instantanés est facturée en fonction du volume de données stockées, qui dépend des facteurs suivants:
- Le volume de données ingérées dans votre pipeline de traitement par flux
- Votre logique de fenêtrage
- Le nombre d'étapes du pipeline
Vous pouvez prendre un instantané de votre job par flux à l'aide de la console Dataflow ou de la Google Cloud CLI. La création d'une tâche à partir de votre instantané n'entraîne aucuns frais supplémentaires pour restaurer l'état du pipeline. Pour en savoir plus, consultez la page Utiliser des instantanés Dataflow.
Tarifs applicables aux instantanés
Confidential VM
Confidential VMs pour Dataflow chiffre les données utilisées sur les VM Compute Engine de type worker. Pour en savoir plus, consultez la page Présentation de Confidential VM.
L'utilisation de Confidential VMs pour Dataflow entraîne des coûts forfaitaires supplémentaires par vCPU et par Go.
Tarifs de Confidential VM
Les tarifs sont globaux et ne varient pas en fonction de la région Google Cloud.
Ressources non Dataflow
En plus de l'utilisation de Dataflow, un job peut consommer les ressources suivantes, chacune faisant l'objet d'une facturation spécifique, y compris, mais sans s'y limiter:
-
Les jobs Dataflow utilisent Cloud Storage pour stocker des fichiers temporaires lors de l'exécution du pipeline. Pour éviter de payer des frais de stockage inutiles, désactivez la fonctionnalité de suppression temporaire sur les buckets utilisés par vos jobs Dataflow pour le stockage temporaire. Pour en savoir plus, consultez la section Supprimer une règle de suppression réversible d'un bucket.
-
Vous pouvez acheminer les journaux vers d'autres destinations ou les exclure de l'ingestion. Pour en savoir plus sur l'optimisation du volume de journaux de vos jobs Dataflow, consultez la page Contrôler le volume de journaux Dataflow.
Afficher l'utilisation des ressources
Vous pouvez consulter le nombre total de vCPU, de mémoire et de disques persistants associés à un job dans le panneau Infos sur le job, sous Métriques des ressources. Vous pouvez suivre les métriques suivantes dans l'interface de surveillance de Dataflow:
- Temps total de processeurs virtuels
- Temps d'utilisation total de la mémoire
- Temps d'utilisation total du disque persistant
- Volume total de flux de données traités
- Volume total des données traitées par Shuffle
- Volume facturable des données traitées par Shuffle
Vous pouvez utiliser la métrique Total shuffle data processed (Données de shuffle traitées au total) pour évaluer les performances de votre pipeline. Quant à la métrique Billable shuffle data processed (Données de shuffle traitées facturables), elle vous permet de déterminer les coûts du job Dataflow.
Pour Dataflow Prime, vous pouvez consulter le nombre total d'UCD consommées par un job dans le panneau Infos sur le job, sous Métriques des ressources.
Simulateur de coût
Le Simulateur de coût vous permet de comprendre les modalités de calcul de votre facture.
Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des SKU de Cloud Platform s'appliquent.
Étape suivante
- Consultez la documentation Dataflow.
- Premiers pas avec Dataflow.
- Essayez le Simulateur de coût.
- Découvrez les solutions et cas d'utilisation de Dataflow.