Prezzi di Cloud Data Fusion
Questo documento illustra i prezzi per Cloud Data Fusion. Per conoscere i prezzi degli altri prodotti, leggi la documentazione sui prezzi.
Ai fini della determinazione del prezzo, l'utilizzo è misurato come il periodo di tempo (in minuti) dalla creazione di un'istanza Cloud Data Fusion alla sua eliminazione. Sebbene la tariffa per i prezzi sia calcolata su base oraria, Cloud Data Fusion viene fatturato al minuto. L'utilizzo viene misurato in ore (30 minuti, ad esempio, corrispondono a 0,5 ore) per applicare una tariffa oraria a un utilizzo al minuto.
Se la valuta utilizzata per il pagamento è diversa da USD, si applicano i prezzi elencati nella tua valuta negli Google Cloud SKU.
Panoramica dei prezzi
I prezzi di Cloud Data Fusion sono suddivisi in due funzioni: sviluppo ed esecuzione della pipeline.
Sviluppo
Per lo sviluppo della pipeline, Cloud Data Fusion offre le seguenti tre versioni:
| Versione di Cloud Data Fusion | Prezzo per istanza all'ora |
|---|---|
| Developer | $ 0,35 (~ $ 250 al mese) |
| Basic | $ 1,80 (~ $ 1100 al mese) |
| Enterprise | $ 4,20 (~ $ 3000 al mese) |
La versione Basic offre senza costi le prime 120 ore al mese per account.
Esecuzione
Per l'esecuzione della pipeline, ti vengono addebitati i cluster di Managed Service for Apache Spark che Cloud Data Fusion crea per eseguire le tue pipeline alle tariffe attuali di Managed Service for Apache Spark.
Confronto tra le versioni Developer, Basic ed Enterprise
| Capacità | Sviluppatore | Di base | Aziende |
|---|---|---|---|
| Numero di utenti simultanei | 2 | Limitato* | Limitato* |
| Workload | Sviluppo, esplorazione del prodotto | Test, sandbox, proof of concept | Produzione |
| Supporto IP interno | |||
| Controllo degli accessi basato sui ruoli (RBAC) | |||
| Finestra di progettazione grafica | |||
| Ecosistema di connettori | |||
| Trasformazioni visive | |||
| Dati strutturati, non strutturati, semistrutturati | |||
| Pipeline in modalità flusso | |||
| Derivazione dell'integrazione, a livello di campo e set di dati | |||
| Integrazione con Knowledge Catalog | |||
| Alta disponibilità | A livello di zona | Regionale | Regionale |
| Creazione e personalizzazione di profili di calcolo | |||
| Supporto DevOps: API REST, gestione del controllo di revisione | |||
| Trigger e programmazioni | |||
| Selezione dell'ambiente di esecuzione | |||
| Esecuzione di pipeline simultanea | Limitato** | Limitato** | |
| SDK di sviluppo per l'estensibilità |
Utilizzo di altre Google Cloud risorse
Oltre al costo di sviluppo di un'istanza di Cloud Data Fusion, ti sono addebitate solo le risorse utilizzate per eseguire le pipeline, ad esempio:
Regioni supportate
Attualmente, i prezzi per Cloud Data Fusion sono gli stessi per tutte le aree geografiche supportate.
| Area geografica | Località |
|---|---|
africa-south1
* |
Johannesburg, Sudafrica |
asia-east1 |
Contea di Changhua, Taiwan |
asia-east2 |
Hong Kong |
asia-northeast1 |
Tokyo, Giappone |
asia-northeast2 |
Osaka, Giappone |
asia-northeast3 |
Seul, Corea del Sud |
asia-south1 |
Mumbai, India |
asia-south2 |
Delhi, India |
asia-southeast1 |
Jurong West, Singapore |
asia-southeast2 |
Giacarta, Indonesia |
australia-southeast1 |
Sydney, Australia |
europe-north1 |
Hamina, Finlandia |
europe-southwest1 |
Madrid, Spagna |
europe-west1 |
Saint-Ghislain, Belgio |
europe-west2 |
Londra, Inghilterra, Regno Unito |
europe-west3 |
Francoforte, Germania |
europe-west4 |
Eemshaven, Paesi Bassi |
europe-west6 |
Zurigo, Svizzera |
europe-west8 |
Milano, Italia |
europe-west9 |
Parigi, Francia |
europe-west12
* |
Torino, Italia |
me-central1* |
Doha, Qatar |
me-central2* |
Dammam, Arabia Saudita |
me-west1 |
Tel Aviv, Israele |
northamerica-northeast1 |
Montréal, Québec, Canada |
northamerica-south1 |
Messico |
southamerica-east1 |
Osasco (San Paolo), Brasile |
southamerica-west1 |
Santiago, Cile |
us-central1 |
Council Bluffs, Iowa, Nord America |
us-east1 |
Moncks Corner, Carolina del Sud, Nord America |
us-east4 |
Ashburn, Virginia del Nord, Nord America |
us-east5 |
Columbus, Ohio, Nord America |
us-south1 |
Dallas, Texas, Nord America |
us-west1 |
The Dalles, Oregon, Nord America |
us-west2 |
Los Angeles, California, Nord America |
africa-south1,
me-central1 me-central1 o
europe-west12.
Esempio di prezzi
Immagina di avere un'istanza di Cloud Data Fusion in esecuzione da 24 ore e di avere esaurito le ore senza costi per la versione Basic. A seconda della versione, i costi di istanza per Cloud Data Fusion sono riassunti nella tabella seguente:
| Versione | Costo all'ora | Numero di ore | Costo di sviluppo |
|---|---|---|---|
| Developer | 0,35 $ | 24 | 24 * 0,35 = 8,4 $ |
| Di base | 1,80 $ | 24 | 24 * 1,8 = 43,2 $ |
| Aziende | 4,20 $ | 24 | 24 * 4,2 = 100,8 $ |
Durante questo periodo di 24 ore, hai eseguito una pipeline che ha letto dati non elaborati di Cloud Storage, eseguito trasformazioni e scritto dati su BigQuery ogni ora. Il completamento di ogni esecuzione ha richiesto circa 15 minuti. In altre parole, i cluster di Managed Service for Apache Spark creati per queste esecuzioni sono rimasti attivi per 15 minuti (0,25 ore) ciascuno. Supponiamo che la configurazione di ciascun cluster Managed Service for Apache Spark fosse la seguente:
| Elemento | Tipo di macchina | CPU virtuali | Disco permanente collegato | Numero nel cluster |
|---|---|---|---|---|
| Nodo master | n1-standard-4 | 4 | 500 GB | 1 |
| Nodi worker | n1-standard-4 | 4 | 500 GB | 5 |
I cluster Managed Service for Apache Spark hanno 24 CPU virtuali ciascuno, 4 per il master e 20 distribuite tra i nodi worker. Ai fini della fatturazione di Managed Service for Apache Spark, il prezzo per questo cluster si baserebbe sulle 24 CPU virtuali e sul periodo di tempo in cui ogni cluster è stato in esecuzione.
Su tutte le esecuzioni della pipeline, il costo totale sostenuto per Managed Service for Apache Spark può essere calcolato come segue:
Managed Service for Apache Spark charge = # of vCPUs * number of clusters * hours per cluster * Managed Service for Apache Spark price
= 24 * 24 * 0.25 * $0.01
= $1.44
I cluster Managed Service for Apache Spark utilizzano altri Google Cloud prodotti, che verrebbero fatturati separatamente. In particolare, questi cluster comporterebbero addebiti per Compute Engine e per lo spazio sottoposto a provisioning su disco permanente standard. Ti saranno addebitati i costi di archiviazione per Cloud Storage e BigQuery a seconda della quantità di dati elaborati dalla tua pipeline.
Per determinare questi costi aggiuntivi in base alle tariffe attuali, puoi utilizzare il Calcolatore prezzi.
Passaggi successivi
- Leggi la documentazione di Cloud Data Fusion.
- Inizia a utilizzare Cloud Data Fusion.
- Prova il Calcolatore prezzi.