Tarifs de Cloud Data Fusion
Ce document explique la tarification de Cloud Data Fusion. Pour les autres produits, consultez la documentation sur les tarifs.
À des fins de tarification, l'utilisation correspond à la durée, en minutes, entre le moment où une instance Cloud Data Fusion est créée et le moment où elle est supprimée. Bien que le tarif soit calculé sur une base horaire, Cloud Data Fusion est facturé à la minute. L'utilisation est mesurée en heures (30 minutes correspondent à 0,5 heure, par exemple) pour appliquer une tarification horaire à la minute près.
Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des codes SKU de Google Cloud s'appliquent.
Présentation de la tarification
La tarification de Cloud Data Fusion est basée sur deux fonctions : le développement du pipeline et son exécution.
Développement
Pour le développement du pipeline, Cloud Data Fusion propose les trois éditions suivantes :
Édition Cloud Data Fusion | Prix par instance et par heure |
---|---|
Developer | 0,35 $ (~250 $ par mois) |
Basic | 1,80 $ (~1 100 $ par mois) |
Enterprise | 4,20 $ (~3 000 $ par mois) |
Avec l'édition Basic, les 120 premières heures par mois et par compte sont gratuites.
Exécution
Les clusters Dataproc créés par Cloud Data Fusion pour exécuter vos pipelines vous sont facturés sur la base des tarifs actuels de Dataproc.
Comparaison des éditions Developer, Basic et Enterprise
Capacité | Developer | Basic | Enterprise |
---|---|---|---|
Nombre d'utilisateurs | 2 (recommandé)* | Illimité | Illimité |
Charges de travail | Développement, exploration de produits | Test, bac à sable, démonstration de faisabilité | Production |
Conception graphique | |||
Écosystème de connecteurs | |||
Transformations visuelles | |||
SDK de développeur pour l'extensibilité | |||
Bibliothèque de nettoyage et de qualité des données | |||
Compatibilité avec les adresses IP privées | |||
Débogage et test (programmatique et visuel) | |||
Jointure, fusion, agréation des transformations | |||
Structuré, non structuré, semi-structuré | |||
Pipelines de traitement par flux | |||
Dépôt de métadonnées d'intégration | |||
Traçabilité de l'intégration, au niveau du champ et de l'ensemble de données | |||
Haute disponibilité | Zonal | Régional (capacité inférieure) |
Régional (capacité supérieure) |
Exécution | Nœud de calcul Dataproc éphémère 1 par défaut | Nœud de calcul Dataproc éphémère 2 par défaut | Dataproc éphémère et dédié, Hadoop, EMR |
Créer et personnaliser les profils de calcul | Versions 6.3 et ultérieures | ||
Assistance DevOps – API REST | |||
Déclencheurs/Calendriers | |||
Sélection de l'environnement d'exécution |
Utiliser d'autres ressources Google Cloud
Outre le coût de développement d'une instance Cloud Data Fusion, vous ne payez que les ressources que vous utilisez pour l'exécution de vos pipelines, telles que :
Régions où le service est disponible
Actuellement, la tarification de Cloud Data Fusion est la même pour toutes les régions où ce service est disponible.
Région | Emplacement |
---|---|
asia-east1 |
Comté de Changhua, Taïwan |
asia-east2 |
Hong Kong |
asia-northeast1 |
Tokyo, Japon |
asia-northeast2 |
Osaka, Japon |
asia-northeast3 |
Séoul, Corée du Sud |
asia-south1 |
Mumbai, Inde |
asia-southeast1 |
Jurong West, Singapour |
asia-southeast2 |
Jakarta, Indonésie |
australia-southeast1 |
Sydney, Australie |
europe-north1 |
Hamina, Finlande |
europe-west1 |
Saint-Ghislain, Belgique |
europe-west2 |
Londres, Angleterre, Royaume-Uni |
europe-west3 |
Francfort, Allemagne |
europe-west4 |
Eemshaven, Pays-Bas |
europe-west6 |
Zurich, Suisse |
northamerica-northeast1 |
Montréal, Québec, Canada |
southamerica-east1 |
Osasco (São Paulo), Brésil |
us-central1 |
Council Bluffs, Iowa, États-Unis |
us-east1 |
Moncks Corner, Caroline du Sud, États-Unis |
us-east4 |
Ashburn, Virginie du Nord, États-Unis |
us-west1 |
The Dalles, Oregon, États-Unis |
us-west2 |
Los Angeles, Californie, États-Unis |
Exemple de tarification
Imaginons qu'une instance Cloud Data Fusion s'exécute depuis 10 heures et qu'il ne reste aucune heure gratuite pour l'édition Basic. Selon l'édition, les frais de développement pour Cloud Data Fusion sont résumés dans le tableau suivant :
Édition | Coût par heure | Nombre d'heures | Coût de développement |
---|---|---|---|
Developer | 0,35 $ | 10 | 10 * 0,35 = 3,50 $ |
Basic | 1,80 $ | 10 | 10 * 1,8 = 18 $ |
Enterprise | 4,20 $ | 10 | 10 * 4,2 = 42 $ |
Au cours de cette période de 10 heures, vous avez exécuté un pipeline lisant les données brutes de Cloud Storage, effectué des transformations et écrit les données dans BigQuery toutes les heures. Chaque exécution a pris environ 15 minutes. En d'autres termes, les clusters Dataproc créés pour ces exécutions ont été actifs pendant 15 minutes (0,25 heure) chacun. Supposons que la configuration de chaque cluster Dataproc soit la suivante :
Élément | Type de machine | Processeurs virtuels | Disque persistant associé | Nombre dans le cluster |
---|---|---|---|---|
Nœud maître | n1-standard-4 | 4 | 500 Go | 1 |
Nœuds de calcul | n1-standard-4 | 4 | 500 Go | 5 |
Les clusters Dataproc ont chacun 24 processeurs virtuels : 4 pour le maître et 20 répartis sur les nœuds de calcul. Dans le cadre de la facturation Dataproc, le prix serait calculé en fonction de ces 24 processeurs virtuels et de la durée d'exécution de chaque cluster.
Pour toutes les exécutions de votre pipeline, l'ensemble des frais engagés pour Dataproc peut être calculé comme suit :
Dataproc charge = # of vCPUs * number of clusters * hours per cluster * Dataproc price = 24 * 10 * 0.25 * $0.01 = $0.60
Les clusters Dataproc utilisent d'autres produits Google Cloud, facturés séparément. Plus précisément, ces clusters sont facturés en fonction de l'utilisation de Compute Engine et de l'espace provisionné sur des disques persistants standards. Des frais de stockage pour Cloud Storage et BigQuery vous sont facturés, en fonction de la quantité de données traitées par votre pipeline.
Pour déterminer ces coûts supplémentaires en fonction des tarifs en vigueur, vous pouvez utiliser le simulateur de coût.
Étape suivante
- Consultez la documentation Cloud Data Fusion.
- Premiers pas avec Cloud Data Fusion.
- Essayez le Simulateur de coût.
- Découvrez les solutions et cas d'utilisation de Cloud Data Fusion.