Tarifs de Cloud Data Fusion
Ce document explique la tarification de Cloud Data Fusion. Pour les autres produits, consultez la documentation sur les tarifs.
À des fins de tarification, l'utilisation correspond à la durée, en minutes, entre le moment où une instance Cloud Data Fusion est créée et le moment où elle est supprimée. Bien que le tarif soit calculé sur une base horaire, Cloud Data Fusion est facturé à la minute. L'utilisation est mesurée en heures (30 minutes correspondent à 0,5 heure, par exemple) pour appliquer une tarification horaire à la minute près.
Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des codes SKU de Google Cloud s'appliquent.
Présentation de la tarification
La tarification de Cloud Data Fusion est basée sur deux fonctions : le développement du pipeline et son exécution.
Développement
Pour le développement du pipeline, Cloud Data Fusion propose les trois éditions suivantes :
Édition Cloud Data Fusion | Prix par instance et par heure |
---|---|
Developer | 0,35 $ (~250 $ par mois) |
Basic | 1,80 $ (~1 100 $ par mois) |
Enterprise | 4,20 $ (~3 000 $ par mois) |
Avec l'édition Basic, les 120 premières heures par mois et par compte sont gratuites.
Exécution
Les clusters Dataproc créés par Cloud Data Fusion pour exécuter vos pipelines vous sont facturés sur la base des tarifs actuels de Dataproc.
Comparaison des éditions Developer, Basic et Enterprise
Capacité | Développeur | De base | Entreprise |
---|---|---|---|
Nombre d'utilisateurs simultanés | 2 | Limitée* | Limitée* |
Charges de travail | Développement, exploration de produits | Tests, bac à sable, démonstration de faisabilité | Production |
Compatibilité avec les adresses IP internes | |||
Contrôle d'accès basé sur les rôles | |||
Conception graphique | |||
Écosystème de connecteurs | |||
Transformations visuelles | |||
Structuré, non structuré, semi-structuré | |||
Pipelines en streaming | |||
Traçabilité de l'intégration, au niveau du champ et de l'ensemble de données | |||
Intégration à Dataplex | |||
Haute disponibilité | Zonal | Régional | Régional |
Créer et personnaliser les profils de calcul | |||
Assistance DevOps: API REST, gestion du contrôle des sources | |||
Déclencheurs et programmations | |||
Sélection de l'environnement d'exécution | |||
Exécution simultanée du pipeline | Limitée** | Limitée** | |
SDK de développeur pour l'extensibilité |
Utiliser d'autres ressources Google Cloud
En plus du coût de développement d'une instance Cloud Data Fusion,vous ne payez que les ressources que vous utilisez pour exécuter vos pipelines, telles que:
Régions où le service est disponible
Actuellement, la tarification de Cloud Data Fusion est la même pour toutes les régions où ce service est disponible.
Région | Emplacement |
---|---|
africa-south1
* |
Johannesburg, Afrique du Sud |
asia-east1 |
Comté de Changhua, Taïwan |
asia-east2 |
Hong Kong |
asia-northeast1 |
Tokyo, Japon |
asia-northeast2 |
Osaka, Japon |
asia-northeast3 |
Séoul, Corée du Sud |
asia-south1 |
Mumbai, Inde |
asia-south2 |
Delhi, Inde |
asia-southeast1 |
Jurong West, Singapour |
asia-southeast2 |
Jakarta, Indonésie |
australia-southeast1 |
Sydney, Australie |
europe-north1 |
Hamina, Finlande |
europe-southwest1 |
Madrid, Espagne |
europe-west1 |
Saint-Ghislain, Belgique |
europe-west2 |
Londres, Angleterre, Royaume-Uni |
europe-west3 |
Francfort, Allemagne |
europe-west4 |
Eemshaven, Pays-Bas |
europe-west6 |
Zurich, Suisse |
europe-west8 |
Milan, Italie |
europe-west9 |
Paris, France |
europe-west12
* |
Turin, Italie |
me-central1 * |
Doha, Qatar |
me-central2 * |
Dammam, Arabie saoudite |
me-west1 |
Tel Aviv, Israël |
northamerica-northeast1 |
Montréal, Québec, Canada |
southamerica-east1 |
Osasco (São Paulo), Brésil |
southamerica-west1 |
Santiago, Chili |
us-central1 |
Council Bluffs, Iowa, Amérique du Nord |
us-east1 |
Moncks Corner, Caroline du Sud, Amérique du Nord |
us-east4 |
Ashburn, Virginie du Nord, Amérique du Nord |
us-east5 |
Columbus, Ohio, Amérique du Nord |
us-south1 |
Dallas, Texas, Amérique du Nord |
us-west1 |
The Dalles, Oregon, Amérique du Nord |
us-west2 |
Los Angeles, Californie, Amérique du Nord |
africa-south1
, me-central1
, me-central1
ou europe-west12
.
Exemple de tarification
Prenons l'exemple d'une instance Cloud Data Fusion qui s'exécute depuis 24 heures et qu'il ne reste aucune heure gratuite pour l'édition Basic. En fonction de l'édition, les frais d'instance pour Cloud Data Fusion sont résumés dans le tableau suivant:
Édition | Coût par heure | Nombre d'heures | Coût de développement |
---|---|---|---|
Developer | 0,35 $ | 24 | 24 x 0,35 = 8,4 $ |
De base | 1,80 $ | 24 | 24 x 1,8 = 43,2 $ |
Entreprise | 4,20 $ | 24 | 24 x 4,2 = 100,8 $ |
Au cours de cette période de 24 heures, vous avez exécuté un pipeline lisant les données brutes de Cloud Storage, effectué des transformations et écrit les données dans BigQuery toutes les heures. Chaque exécution a pris environ 15 minutes. En d'autres termes, les clusters Dataproc créés pour ces exécutions ont été actifs pendant 15 minutes (0,25 heure) chacun. Supposons que la configuration de chaque cluster Dataproc soit la suivante :
Élément | Type de machine | Processeurs virtuels | Disque persistant associé | Nombre dans le cluster |
---|---|---|---|---|
Nœud maître | n1-standard-4 | 4 | 500 Go | 1 |
Nœuds de calcul | n1-standard-4 | 4 | 500 Go | 5 |
Les clusters Dataproc ont chacun 24 processeurs virtuels : 4 pour le maître et 20 répartis sur les nœuds de calcul. Dans le cadre de la facturation Dataproc, le prix serait calculé en fonction de ces 24 processeurs virtuels et de la durée d'exécution de chaque cluster.
Pour toutes les exécutions de votre pipeline, l'ensemble des frais engagés pour Dataproc peut être calculé comme suit :
Dataproc charge = # of vCPUs * number of clusters * hours per cluster * Dataproc price = 24 * 24 * 0.25 * $0.01 = $1.44
Les clusters Dataproc utilisent d'autres produits Google Cloud, facturés séparément. Plus précisément, ces clusters sont facturés en fonction de l'utilisation de Compute Engine et de l'espace provisionné sur des disques persistants standards. Des frais de stockage pour Cloud Storage et BigQuery vous sont facturés, en fonction de la quantité de données traitées par votre pipeline.
Pour déterminer ces coûts supplémentaires en fonction des tarifs en vigueur, vous pouvez utiliser le simulateur de coût.
Étape suivante
- Consultez la documentation Cloud Data Fusion.
- Premiers pas avec Cloud Data Fusion.
- Essayez le Simulateur de coût.