Precios de Cloud Data Fusion
En este documento se explica cómo se calculan los precios de Cloud Data Fusion. Para ver las tarifas de otros productos, consulta la lista de precios.
Para calcular las tarifas, el uso se mide en minutos desde el momento en el que una instancia de Cloud Data Fusion se crea hasta que se elimina. Aunque los precios se indican por horas, Cloud Data Fusion se factura por minutos. El uso se indica por horas y se aplica la tarifa por horas que correspondería al uso por minuto (por ejemplo, 30 minutos serían 0,5 horas).
Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Google Cloud.
Resumen de precios
Las tarifas de Cloud Data Fusion varían según la funcionalidad que utilices, ya sea de desarrollo o de ejecución de flujo de procesamiento.
Desarrollo
Cloud Data Fusion ofrece las tres ediciones que aparecen a continuación para el desarrollo de flujos de procesamiento:
Edición de Cloud Data Fusion | Precio por instancia y hora |
---|---|
Developer | 0,35 USD (alrededor de 250 USD al mes) |
Basic | 1,80 USD (alrededor de 1100 USD al mes) |
Enterprise | 4,20 USD (alrededor de 3000 USD al mes) |
Con la edición Basic, las primeras 120 horas del mes de cada cuenta son gratuitas.
Ejecución
En el caso de la ejecución de flujos de procesamiento, se te cobra por los clústeres de Dataproc que Cloud Data Fusion crea para ejecutar tus flujos de procesamiento a las tarifas vigentes de Dataproc.
Comparación entre las ediciones Developer, Basic y Enterprise
Competencia | Desarrollador | Básico | Empresa |
---|---|---|---|
Número de usuarios simultáneos | 2 | Limitado* | Limitado* |
Cargas de trabajo | Desarrollo y exploración de productos | Pruebas, entorno aislado y prueba de concepto | Producción |
Compatibilidad con IP internas | |||
Control de acceso basado en roles | |||
Diseño visual | |||
Ecosistema de conectores | |||
Transformaciones visuales | |||
Elementos estructurados, semiestructurados y sin estructura | |||
Flujos de procesamiento en streaming | |||
Linaje de integración: niveles de campo y conjunto de datos | |||
Integración con Dataplex | |||
Alta disponibilidad | Por zonas | Regional | Regional |
Crear y personalizar perfiles de computación | |||
Compatibilidad con DevOps: API REST y gestión de control de código fuente | |||
Activadores y programaciones | |||
Selección del entorno de ejecución | |||
Ejecución de flujo de procesamiento simultánea | Limitado** | Limitado** | |
SDK de desarrollo para una mayor capacidad de ampliación |
Uso de otros recursos de Google Cloud
Además del coste de desarrollo de las instancias de Cloud Data Fusion, solo se te cobra por los recursos que utilices para ejecutar tus flujos de procesamiento. Por ejemplo:
Regiones disponibles
Nota: Actualmente, el precio de Cloud Data Fusion es el mismo para todas las regiones donde está disponible.
Región | Ubicación |
---|---|
africa-south1
* |
Johannesburgo (Sudáfrica) |
asia-east1 |
Condado de Changhua (Taiwán) |
asia-east2 |
Hong Kong |
asia-northeast1 |
Tokio (Japón) |
asia-northeast2 |
Osaka (Japón) |
asia-northeast3 |
Seúl (Corea del Sur) |
asia-south1 |
Bombay (India) |
asia-south2 |
Delhi (India) |
asia-southeast1 |
Jurong West (Singapur) |
asia-southeast2 |
Yakarta (Indonesia) |
australia-southeast1 |
Sídney (Australia) |
europe-north1 |
Hamina (Finlandia) |
europe-southwest1 |
Madrid (España) |
europe-west1 |
Saint‑Ghislain (Bélgica) |
europe-west2 |
Londres (Inglaterra, Reino Unido) |
europe-west3 |
Fráncfort (Alemania) |
europe-west4 |
Eemshaven (Países Bajos) |
europe-west6 |
Zúrich (Suiza) |
europe-west8 |
Milán (Italia) |
europe-west9 |
París (Francia) |
europe-west12
* |
Turín (Italia) |
me-central1 * |
Doha (Catar) |
me-central2 * |
Dammam (Arabia Saudí) |
me-west1 |
Tel Aviv (Israel) |
northamerica-northeast1 |
Montreal (Quebec, Canadá) |
southamerica-east1 |
Osasco (São Paulo, Brasil) |
southamerica-west1 |
Santiago de Chile (Chile) |
us-central1 |
Council Bluffs (Iowa, Norteamérica) |
us-east1 |
Moncks Corner (Carolina del Sur, Norteamérica) |
us-east4 |
Ashburn (Norte de Virginia, Norteamérica) |
us-east5 |
Columbus (Ohio, Norteamérica) |
us-south1 |
Dallas (Texas, Norteamérica) |
us-west1 |
The Dalles (Oregón, Norteamérica) |
us-west2 |
Los Ángeles (California, Norteamérica) |
africa-south1
,
me-central1
, me-central1
ni
europe-west12
.
Ejemplo de precios
Imagina una instancia de Cloud Data Fusion que se haya estado ejecutando durante 24 horas y que no le queden horas gratuitas de la edición Basic. El cargo por instancias de Cloud Data Fusion que se cobra por la edición se resume en la siguiente tabla:
Edición | Coste por hora | Número de horas | Coste de desarrollo |
---|---|---|---|
Developer | 0,35 USD | 24 | 24*0,35 = 8,4 USD |
Básico | 1,80 USD | 24 | 24*1,8 = 43,2 USD |
Empresa | 4,20 USD | 24 | 24*4,2 = 100,8 USD |
Durante ese periodo de 24 horas, has ejecutado un flujo de procesamiento que ha leído datos sin procesar de Cloud Storage, has realizado transformaciones y has escrito los datos en BigQuery cada hora. Cada ejecución de este flujo ha llevado 15 minutos aproximadamente. En otras palabras, los clústeres de Dataproc que se han creado durante estas ejecuciones han estado activos durante 15 minutos (es decir, 0,25 horas) en cada ocasión. Supongamos que la configuración de cada clúster de Dataproc era como se describe a continuación:
Elemento | Tipo de máquina | CPU virtuales | Disco persistente conectado | Número de nodos en el clúster |
---|---|---|---|---|
Nodo maestro | n1‑standard‑4 | 4 | 500 GB | 1 |
Nodos de trabajador | n1‑standard‑4 | 4 | 500 GB | 5 |
Cada clúster de Dataproc tiene 24 CPU virtuales: 4 para el nodo maestro y 20 distribuidas entre los nodos de trabajador. A la hora de facturar Dataproc, el precio de este clúster se basaría en esas 24 CPU virtuales y en el tiempo de ejecución de cada clúster.
Se puede calcular el precio total que se te va a cobrar por todas las veces que se ha ejecutado el flujo de procesamiento con Dataproc de la siguiente manera:
Dataproc charge = # of vCPUs * number of clusters * hours per cluster * Dataproc price = 24 * 24 * 0.25 * $0.01 = $1.44
Los clústeres de Dataproc utilizan otros productos de Google Cloud que se facturan por separado. Concretamente, los clústeres que hemos visto en este ejemplo generarían gastos por utilizar Compute Engine y espacio aprovisionado de un disco persistente estándar. En este caso, se te cobraría por el almacenamiento en Cloud Storage y BigQuery en función de la cantidad de datos que procese tu flujo de procesamiento.
Para determinar estos cargos con las tarifas vigentes, puedes utilizar la calculadora de precios.
Siguientes pasos
- Lee la documentación de Cloud Data Fusion.
- Empieza a utilizar Cloud Data Fusion.
- Prueba la calculadora de precios.