Prezzi di Cloud Data Fusion
Questo documento illustra i prezzi per Cloud Data Fusion. Per conoscere i prezzi degli altri prodotti, leggi la documentazione sui prezzi.
Ai fini della determinazione del prezzo, l'utilizzo è misurato come il periodo di tempo (in minuti) dalla creazione di un'istanza Cloud Data Fusion alla sua eliminazione. Sebbene la tariffa per i prezzi sia calcolata su base oraria, Cloud Data Fusion viene fatturato al minuto. L'utilizzo viene misurato in ore (30 minuti, ad esempio, corrispondono a 0,5 ore) per applicare una tariffa oraria a un utilizzo al minuto.
Se la valuta utilizzata per il pagamento è diversa da USD, si applicano i prezzi elencati nella tua valuta negli SKU di Google Cloud.
Panoramica dei prezzi
I prezzi di Cloud Data Fusion sono suddivisi in due funzioni: sviluppo ed esecuzione della pipeline.
Sviluppo
Per lo sviluppo della pipeline, Cloud Data Fusion offre le seguenti tre versioni:
Versione di Cloud Data Fusion | Prezzo per istanza all'ora |
---|---|
Developer | $ 0,35 (~ $ 250 al mese) |
Basic | $ 1,80 (~ $ 1100 al mese) |
Enterprise | $ 4,20 (~ $ 3000 al mese) |
La versione Basic offre gratuitamente le prime 120 ore al mese per account.
Esecuzione
Per l'esecuzione della pipeline, ti sono addebitati i cluster di Dataproc creati da Cloud Data Fusion per eseguire le tue pipeline alle tariffe di Dataproc attuali.
Confronto tra le versioni Developer, Basic ed Enterprise
Capacità | Sviluppatore | Di base | Aziende |
---|---|---|---|
Numero di utenti in contemporanea | 2 | Con limitazioni* | Con limitazioni* |
Carichi di lavoro | Sviluppo, esplorazione dei prodotti | Test, sandbox, PDC | Produzione |
Supporto IP interno | |||
Controllo degli accessi basato sui ruoli (RBAC) | |||
Finestra di progettazione grafica | |||
Ecosistema di connettori | |||
Trasformazioni visive | |||
Dati strutturati, non strutturati, semistrutturati | |||
Pipeline in modalità flusso | |||
Derivazione dell'integrazione, a livello di campo e set di dati | |||
Integrazione con Dataplex | |||
Alta disponibilità | A livello di zona | Regionale | Regionale |
Creazione e personalizzazione di profili di calcolo | |||
Supporto DevOps: API REST, Gestione del controllo del codice sorgente | |||
Trigger e pianificazioni | |||
Selezione dell'ambiente di esecuzione | |||
Esecuzione contemporanea della pipeline | Con limitazioni** | Con limitazioni** | |
SDK di sviluppo per l'estensibilità |
Utilizzo di altre risorse Google Cloud
Oltre al costo di sviluppo di un'istanza Cloud Data Fusion,ti vengono addebitate solo le risorse utilizzate per eseguire le pipeline, ad esempio:
Aree geografiche supportate
Attualmente, i prezzi per Cloud Data Fusion sono gli stessi per tutte le aree geografiche supportate.
Area geografica | Località |
---|---|
africa-south1
* |
Johannesburg, Sudafrica |
asia-east1 |
Contea di Changhua, Taiwan |
asia-east2 |
Hong Kong |
asia-northeast1 |
Tokyo, Giappone |
asia-northeast2 |
Osaka, Giappone |
asia-northeast3 |
Seul, Corea del Sud |
asia-south1 |
Mumbai, India |
asia-south2 |
Delhi, India |
asia-southeast1 |
Jurong West, Singapore |
asia-southeast2 |
Giacarta, Indonesia |
australia-southeast1 |
Sydney, Australia |
europe-north1 |
Hamina, Finlandia |
europe-southwest1 |
Madrid, Spagna |
europe-west1 |
Saint-Ghislain, Belgio |
europe-west2 |
Londra, Inghilterra, Regno Unito |
europe-west3 |
Francoforte, Germania |
europe-west4 |
Eemshaven, Paesi Bassi |
europe-west6 |
Zurigo, Svizzera |
europe-west8 |
Milano |
europe-west9 |
Parigi, Francia |
europe-west12
* |
Torino, Italia |
me-central1 * |
Doha, Qatar |
me-central2 * |
Dammam, Arabia Saudita |
me-west1 |
Tel Aviv, Israele |
northamerica-northeast1 |
Montréal, Québec, Canada |
southamerica-east1 |
Osasco (San Paolo), Brasile |
southamerica-west1 |
Santiago, Cile |
us-central1 |
Council Bluffs, Iowa, Nord America |
us-east1 |
Moncks Corner, Carolina del Sud, Nord America |
us-east4 |
Ashburn, Virginia del Nord, Nord America |
us-east5 |
Columbus, Ohio, Nord America |
us-south1 |
Dallas, Texas, Nord America |
us-west1 |
The Dalles, Oregon, Nord America |
us-west2 |
Los Angeles, California, Nord America |
africa-south1
,
me-central1
, me-central1
o
europe-west12
.
Esempio di prezzi
Prendi in considerazione un'istanza Cloud Data Fusion in esecuzione da 24 ore e non sono rimaste ore gratuite per la versione Basic. In base alla versione, i costi delle istanze per Cloud Data Fusion sono riassunti nella tabella seguente:
Versione | Costo all'ora | Numero di ore | Costo di sviluppo |
---|---|---|---|
Developer | $ 0,35 | 24 | 24*0,35 = 8,4 $ |
Di base | $ 1,80 | 24 | 24*1,8 = $43,2 |
Aziende | $ 4,20 | 24 | 24*4,2 = $100,8 |
Durante questo periodo di 24 ore, hai eseguito una pipeline che ha letto i dati non elaborati di Cloud Storage, eseguito trasformazioni e scritto i dati in BigQuery ogni ora. Il completamento di ogni esecuzione ha richiesto circa 15 minuti. In altre parole, i cluster di Dataproc creati per queste esecuzioni sono rimasti attivi per 15 minuti (0,25 ore) ciascuno. Supponiamo che la configurazione di ciascun cluster Dataproc fosse la seguente:
Elemento | Tipo di macchina | CPU virtuali | Disco permanente collegato | Numero nel cluster |
---|---|---|---|---|
Nodo master | n1-standard-4 | 4 | 500 GB | 1 |
Nodi worker | n1-standard-4 | 4 | 500 GB | 5 |
I cluster Dataproc hanno 24 CPU virtuali ciascuno, 4 per il master e 20 distribuite tra i nodi worker. Ai fini della fatturazione di Dataproc, il prezzo per questo cluster si baserebbe sulle 24 CPU virtuali e sul periodo di tempo in cui ogni cluster è stato in esecuzione.
Su tutte le esecuzioni della pipeline, il costo totale sostenuto per Dataproc può essere calcolato come segue:
Dataproc charge = # of vCPUs * number of clusters * hours per cluster * Dataproc price = 24 * 24 * 0.25 * $0.01 = $1.44
I cluster Dataproc utilizzano altri prodotti Google Cloud, che verrebbero fatturati separatamente. In particolare, questi cluster comporterebbero addebiti per Compute Engine e per lo spazio sottoposto a provisioning su disco permanente standard. Ti saranno addebitati i costi di archiviazione per Cloud Storage e BigQuery a seconda della quantità di dati elaborati dalla tua pipeline.
Per determinare questi costi aggiuntivi in base alle tariffe attuali, puoi utilizzare il Calcolatore prezzi.
Passaggi successivi
- Leggi la documentazione di Cloud Data Fusion.
- Inizia a utilizzare Cloud Data Fusion.
- Prova il Calcolatore prezzi.