Precios de Cloud Data Fusion

En este documento se explica cómo se calculan los precios de Cloud Data Fusion. Para ver las tarifas de otros productos, consulta la lista de precios.

Para calcular las tarifas, el uso se mide en minutos desde el momento en el que una instancia de Cloud Data Fusion se crea hasta que se elimina. Aunque los precios se indican por horas, Cloud Data Fusion se factura por minutos. El uso se indica por horas y se aplica la tarifa por horas que correspondería al uso por minuto (por ejemplo, 30 minutos serían 0,5 horas).

Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Google Cloud.

Resumen de precios

Las tarifas de Cloud Data Fusion varían según la funcionalidad que utilices, ya sea de desarrollo o de ejecución de flujo de procesamiento.

Desarrollo

Cloud Data Fusion ofrece las tres ediciones que aparecen a continuación para el desarrollo de flujos de procesamiento:

Edición de Cloud Data Fusion Precio por instancia y hora
Desarrollador 0,35 USD (alrededor de 250 USD al mes)
Básica 1,80 USD (alrededor de 1100 USD al mes)
Enterprise 4,20 USD (alrededor de 3000 USD al mes)

Con la edición Basic, las primeras 120 horas del mes de cada cuenta son gratuitas.

Ejecución

En el caso de la ejecución de flujos de procesamiento, se te cobra por los clústeres de Dataproc que Cloud Data Fusion crea para ejecutar tus flujos de procesamiento a las tarifas vigentes de Dataproc.

Comparación entre las ediciones Developer, Basic y Enterprise

Función Developer Basic Enterprise
Número de usuarios 2 (recomendado)* Ilimitado Ilimitado
Cargas de trabajo Desarrollo y exploración de productos Pruebas, zona de pruebas y prueba de concepto Producción
Diseño visual
Ecosistema de conectores
Transformaciones visuales
SDK de desarrollo para una mayor capacidad de ampliación
Calidad de los datos y biblioteca de limpieza
Compatibilidad con IP privadas
Depuración y pruebas (programáticas y visuales)
Unir, combinar y agregar transformaciones
Elementos estructurados, semiestructurados y sin estructura
Flujos de procesamiento en streaming
Integración de repositorio de metadatos
Linaje de integración: niveles de campo y conjunto de datos
Alta disponibilidad Por zonas Regional Regional
Crear y personalizar perfiles de computación Versiones 6.3 y posteriores
Compatibilidad con DevOps: API REST
Activadores y programaciones
Selección del entorno de ejecución

* La edición Developer ofrece el conjunto completo de funciones de Cloud Data Fusion, pero las garantías de fiabilidad y escalabilidad son limitadas. Si varias personas la utilizan a la vez, es posible que el rendimiento empeore.

Uso de otros recursos de Google Cloud

Además del coste de desarrollo de las instancias de Cloud Data Fusion, solo se te facturan los recursos que utilices para ejecutar tus flujos de procesamiento. Por ejemplo:

Regiones disponibles

Nota: Actualmente, el precio de Cloud Data Fusion es el mismo para todas las regiones donde está disponible.

Región Ubicación
africa-south1 * Johannesburgo (Sudáfrica)
asia-east1 Condado de Changhua (Taiwán)
asia-east2 Hong Kong
asia-northeast1 Tokio (Japón)
asia-northeast2 Osaka (Japón)
asia-northeast3 Seúl (Corea del Sur)
asia-south1 Bombay (India)
asia-south2 Delhi (India)
asia-southeast1 Jurong West (Singapur)
asia-southeast2 Yakarta (Indonesia)
australia-southeast1 Sídney (Australia)
europe-north1 Hamina (Finlandia)
europe-southwest1 Madrid (España)
europe-west1 Saint‑Ghislain (Bélgica)
europe-west2 Londres (Inglaterra, Reino Unido)
europe-west3 Fráncfort (Alemania)
europe-west4 Eemshaven (Países Bajos)
europe-west6 Zúrich (Suiza)
europe-west8 Milán (Italia)
europe-west9 París (Francia)
europe-west12 * Turín (Italia)
me-central1* Doha (Catar)
me-central2* Dammam (Arabia Saudí)
me-west1 Tel Aviv (Israel)
northamerica-northeast1 Montreal (Quebec, Canadá)
southamerica-east1 Osasco (São Paulo, Brasil)
southamerica-west1 Santiago de Chile (Chile)
us-central1 Council Bluffs (Iowa, Norteamérica)
us-east1 Moncks Corner, Carolina del Sur, Norteamérica
us-east4 Ashburn (Norte de Virginia, Norteamérica)
us-east5 Columbus (Ohio, Norteamérica)
us-south1 Dallas (Texas, Norteamérica)
us-west1 The Dalles (Oregón, Norteamérica)
us-west2 Los Ángeles (California, Norteamérica)

* El linaje de datos de Cloud Data Fusion no es compatible con africa-south1, me-central1, me-central1 ni europe-west12.

Ejemplo de precios

Supongamos que una instancia de Cloud Data Fusion se ha ejecutado durante 10 horas y que no quedan horas gratuitas de la edición Basic. El gasto de desarrollo de Cloud Data Fusion en el que incurriríamos por usar esta edición se resume en la siguiente tabla:

Edición Coste por hora Número de horas Coste de desarrollo
Developer 0,35 USD 10 10 * 0,35 = 3,50 USD
Basic 1,80 USD 10 10 * 1,8 = 18 USD
Enterprise 4,20 USD 10 10 * 4,2 = 42 USD

Durante este periodo de 10 horas, has ejecutado un flujo de procesamiento que ha leído datos sin procesar de Cloud Storage, realizado transformaciones y enviado la información a BigQuery cada hora. Cada ejecución de este flujo ha llevado 15 minutos aproximadamente. En otras palabras, los clústeres de Dataproc que se han creado durante estas ejecuciones han estado activos durante 15 minutos (es decir, 0,25 horas) en cada ocasión. Supongamos que la configuración de cada clúster de Dataproc era como se describe a continuación:

Elemento Tipo de máquina CPU virtuales Disco persistente conectado Número de nodos en el clúster
Nodo maestro n1‑standard‑4 4 500 GB 1
Nodos de trabajador n1‑standard‑4 4 500 GB 5

Cada clúster de Dataproc tiene 24 CPU virtuales: 4 para el nodo maestro y 20 distribuidas entre los nodos de trabajador. A la hora de facturar Dataproc, el precio de este clúster se basaría en esas 24 CPU virtuales y en el tiempo de ejecución de cada clúster.

Se puede calcular el precio total que se te va a cobrar por todas las veces que se ha ejecutado el flujo de procesamiento con Dataproc de la siguiente manera:

Dataproc charge = # of vCPUs * number of clusters * hours per cluster * Dataproc price
                      = 24 * 10 * 0.25 * $0.01
                      = $0.60

Los clústeres de Dataproc utilizan otros productos de Google Cloud que se facturan por separado. Concretamente, los clústeres que hemos visto en este ejemplo generarían gastos por utilizar Compute Engine y espacio aprovisionado de un disco persistente estándar. En este caso, se te cobraría por el almacenamiento en Cloud Storage y BigQuery en función de la cantidad de datos que procese tu flujo de procesamiento.

Para determinar estos cargos con las tarifas vigentes, puedes utilizar la calculadora de precios.

Siguientes pasos

Solicitar un presupuesto personalizado

Gracias al modelo de pago por uso de Google Cloud, solo pagas por los servicios que utilizas. Ponte en contacto con nuestro equipo de ventas para solicitar un presupuesto personalizado para tu organización.
Contactar con Ventas