Tarifs

Ce document explique la tarification de Cloud Data Fusion. Pour les autres produits, consultez la documentation sur les tarifs.

À des fins de tarification, l'utilisation correspond à la durée, en minutes, entre le moment où une instance Cloud Data Fusion est créée et le moment où elle est supprimée. Bien que le tarif soit calculé sur une base horaire, Cloud Data Fusion est facturé à la minute. L'utilisation est mesurée en heures (30 minutes correspondent à 0,5 heure, par exemple) pour appliquer une tarification horaire à la minute près.

Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des codes SKU de Google Cloud s'appliquent.

Présentation de la tarification

La tarification de Cloud Data Fusion est basée sur deux fonctions : le développement du pipeline et son exécution.

Développement

Pour le développement du pipeline, Cloud Data Fusion propose les trois éditions suivantes :

Édition Cloud Data Fusion Prix par instance et par heure
Developer 0,35 $ (~250 $ par mois)
Basic 1,80 $ (~1 100 $ par mois)
Enterprise 4,20 $ (~3 000 $ par mois)

Avec l'édition Basic, les 120 premières heures par mois et par compte sont gratuites.

Exécution

Les clusters Dataproc créés par Cloud Data Fusion pour exécuter vos pipelines vous sont facturés sur la base des tarifs actuels de Dataproc.

Comparaison des éditions Developer, Basic et Enterprise

Capacité Developer Basic Enterprise
Nombre d'utilisateurs 2 (recommandé)* Illimité Illimité
Charges de travail Développement, exploration de produits Test, bac à sable, démonstration de faisabilité Production
Conception graphique
Écosystème de connecteurs
Transformations visuelles
SDK de développeur pour l'extensibilité
Bibliothèque de nettoyage et de qualité des données
Compatibilité avec les adresses IP privées
Débogage et test (programmatique et visuel)
Jointure, fusion, agréation des transformations
Structuré, non structuré, semi-structuré
Pipelines de traitement par flux
Dépôt de métadonnées d'intégration
Traçabilité de l'intégration, au niveau du champ et de l'ensemble de données
Haute disponibilité Zonal Régional
(capacité inférieure)
Régional
(capacité supérieure)
Exécution Nœud de calcul Dataproc éphémère 1 par défaut Nœud de calcul Dataproc éphémère 2 par défaut Dataproc éphémère et dédié, Hadoop, EMR
Créer et personnaliser des profils de calcul Versions 6.3 et ultérieures
Assistance DevOps – API REST
Déclencheurs/Calendriers
Sélection de l'environnement d'exécution

* L'édition Developer propose l'ensemble des fonctionnalités Cloud Data Fusion, mais ses garanties de fiabilité et d'évolutivité sont limitées. Les performances sont susceptibles de diminuer si plusieurs utilisateurs s'en servent en même temps.

Utiliser d'autres ressources Google Cloud

Outre le coût de développement d'une instance Cloud Data Fusion, vous ne payez que les ressources que vous utilisez pour l'exécution de vos pipelines, telles que :

Régions où le service est disponible

Actuellement, la tarification de Cloud Data Fusion est la même pour toutes les régions où ce service est disponible.

Région Emplacement
asia-east1 Comté de Changhua, Taïwan
asia-east2 Hong Kong
asia-northeast1 Tokyo, Japon
asia-northeast2 Osaka, Japon
asia-northeast3 Séoul, Corée du Sud
asia-south1 Mumbai, Inde
asia-southeast1 Jurong West, Singapour
asia-southeast2 Jakarta, Indonésie
australia-southeast1 Sydney, Australie
europe-north1 Hamina, Finlande
europe-west1 Saint-Ghislain, Belgique
europe-west2 Londres, Angleterre, Royaume-Uni
europe-west3 Francfort, Allemagne
europe-west4 Eemshaven, Pays-Bas
europe-west6 Zurich, Suisse
northamerica-northeast1 Montréal, Québec, Canada
southamerica-east1 Osasco (São Paulo), Brésil
us-central1 Council Bluffs, Iowa, États-Unis
us-east1 Moncks Corner, Caroline du Sud, États-Unis
us-east4 Ashburn, Virginie du Nord, États-Unis
us-west1 The Dalles, Oregon, États-Unis
us-west2 Los Angeles, Californie, États-Unis

Exemple de tarification

Imaginons qu'une instance Cloud Data Fusion s'exécute depuis 10 heures et qu'il ne reste aucune heure gratuite pour l'édition Basic. Selon l'édition, les frais de développement pour Cloud Data Fusion sont résumés dans le tableau suivant :

Édition Coût par heure Nombre d'heures Coût de développement
Developer 0,35 $ 10 10 * 0,35 = 3,50 $
Basic 1,80 $ 10 10 * 1,8 = 18 $
Enterprise 4,20 $ 10 10 * 4,2 = 42 $

Au cours de cette période de 10 heures, vous avez exécuté un pipeline lisant les données brutes de Cloud Storage, effectué des transformations et écrit les données dans BigQuery toutes les heures. Chaque exécution a pris environ 15 minutes. En d'autres termes, les clusters Dataproc créés pour ces exécutions ont été actifs pendant 15 minutes (0,25 heure) chacun. Supposons que la configuration de chaque cluster Dataproc soit la suivante :

Élément Type de machine Processeurs virtuels Disque persistant associé Nombre dans le cluster
Nœud maître n1-standard-4 4 500 Go 1
Nœuds de calcul n1-standard-4 4 500 Go 5

Les clusters Dataproc ont chacun 24 processeurs virtuels : 4 pour le maître et 20 répartis sur les nœuds de calcul. Dans le cadre de la facturation Dataproc, le prix serait calculé en fonction de ces 24 processeurs virtuels et de la durée d'exécution de chaque cluster.

Pour toutes les exécutions de votre pipeline, l'ensemble des frais engagés pour Dataproc peut être calculé comme suit :

Dataproc charge = # of vCPUs * number of clusters * hours per cluster * Dataproc price
                      = 24 * 10 * 0.25 * $0.01
                      = $0.60

Les clusters Dataproc utilisent d'autres produits Google Cloud, facturés séparément. Plus précisément, ces clusters sont facturés en fonction de l'utilisation de Compute Engine et de l'espace provisionné sur des disques persistants standards. Des frais de stockage pour Cloud Storage et BigQuery vous sont facturés, en fonction de la quantité de données traitées par votre pipeline.

Pour déterminer ces coûts supplémentaires en fonction des tarifs en vigueur, vous pouvez utiliser le simulateur de coût.