Precios de Cloud Data Fusion

En este documento se explica cómo se calculan los precios de Cloud Data Fusion. Para ver las tarifas de otros productos, consulta la lista de precios.

Para calcular las tarifas, el uso se mide en minutos desde el momento en el que una instancia de Cloud Data Fusion se crea hasta que se elimina. Aunque los precios se indican por horas, Cloud Data Fusion se factura por minutos. El uso se indica por horas y se aplica la tarifa por horas que correspondería al uso por minuto (por ejemplo, 30 minutos serían 0,5 horas).

Si pagas en una moneda que no sea el dólar estadounidense, se aplicarán los precios que figuran para tu divisa en los SKU de Google Cloud.

Resumen de precios

Las tarifas de Cloud Data Fusion varían según la funcionalidad que utilices, ya sea de desarrollo o de ejecución de flujo de procesamiento.

Desarrollo

Cloud Data Fusion ofrece las tres ediciones que aparecen a continuación para el desarrollo de flujos de procesamiento:

Edición de Cloud Data Fusion Precio por instancia y hora
Developer 0,35 USD (alrededor de 250 USD al mes)
Basic 1,80 USD (alrededor de 1100 USD al mes)
Enterprise 4,20 USD (alrededor de 3000 USD al mes)

Con la edición Basic, las primeras 120 horas del mes de cada cuenta son gratuitas.

Ejecución

En el caso de la ejecución de flujos de procesamiento, se te cobra por los clústeres de Dataproc que Cloud Data Fusion crea para ejecutar tus flujos de procesamiento a las tarifas vigentes de Dataproc.

Comparación entre las ediciones Developer, Basic y Enterprise

Competencia Desarrollador Básico Empresa
Número de usuarios simultáneos 2 Limitado* Limitado*
Cargas de trabajo Desarrollo y exploración de productos Pruebas, entorno aislado y prueba de concepto Producción
Compatibilidad con IP internas
Control de acceso basado en roles
Diseño visual
Ecosistema de conectores
Transformaciones visuales
Elementos estructurados, semiestructurados y sin estructura
Flujos de procesamiento en streaming
Linaje de integración: niveles de campo y conjunto de datos
Integración con Dataplex
Alta disponibilidad Por zonas Regional Regional
Crear y personalizar perfiles de computación
Compatibilidad con DevOps: API REST y gestión de control de código fuente
Activadores y programaciones
Selección del entorno de ejecución
Ejecución de flujo de procesamiento simultánea Limitado** Limitado**
SDK de desarrollo para una mayor capacidad de ampliación

* Usuarios simultáneos: en general, Cloud Data Fusion admite un máximo de 50 usuarios por instancia. Si el RBAC está habilitado, el máximo es 25 usuarios.

** La ejecución simultánea de flujos de procesamiento se limita en función de la versión de la instancia que se esté utilizando. Para acceder a los detalles de escalabilidad, ponte en contacto con un representante de Google Cloud.

Uso de otros recursos de Google Cloud

Además del coste de desarrollo de las instancias de Cloud Data Fusion, solo se te cobra por los recursos que utilices para ejecutar tus flujos de procesamiento. Por ejemplo:

Regiones disponibles

Nota: Actualmente, el precio de Cloud Data Fusion es el mismo para todas las regiones donde está disponible.

Región Ubicación
africa-south1 * Johannesburgo (Sudáfrica)
asia-east1 Condado de Changhua (Taiwán)
asia-east2 Hong Kong
asia-northeast1 Tokio (Japón)
asia-northeast2 Osaka (Japón)
asia-northeast3 Seúl (Corea del Sur)
asia-south1 Bombay (India)
asia-south2 Delhi (India)
asia-southeast1 Jurong West (Singapur)
asia-southeast2 Yakarta (Indonesia)
australia-southeast1 Sídney (Australia)
europe-north1 Hamina (Finlandia)
europe-southwest1 Madrid (España)
europe-west1 Saint‑Ghislain (Bélgica)
europe-west2 Londres (Inglaterra, Reino Unido)
europe-west3 Fráncfort (Alemania)
europe-west4 Eemshaven (Países Bajos)
europe-west6 Zúrich (Suiza)
europe-west8 Milán (Italia)
europe-west9 París (Francia)
europe-west12 * Turín (Italia)
me-central1* Doha (Catar)
me-central2* Dammam (Arabia Saudí)
me-west1 Tel Aviv (Israel)
northamerica-northeast1 Montreal (Quebec, Canadá)
southamerica-east1 Osasco (São Paulo, Brasil)
southamerica-west1 Santiago de Chile (Chile)
us-central1 Council Bluffs (Iowa, Norteamérica)
us-east1 Moncks Corner (Carolina del Sur, Norteamérica)
us-east4 Ashburn (Norte de Virginia, Norteamérica)
us-east5 Columbus (Ohio, Norteamérica)
us-south1 Dallas (Texas, Norteamérica)
us-west1 The Dalles (Oregón, Norteamérica)
us-west2 Los Ángeles (California, Norteamérica)

* El linaje de datos de Cloud Data Fusion no es compatible con africa-south1, me-central1, me-central1 ni europe-west12.

Ejemplo de precios

Imagina una instancia de Cloud Data Fusion que se haya estado ejecutando durante 24 horas y que no le queden horas gratuitas de la edición Basic. El cargo por instancias de Cloud Data Fusion que se cobra por la edición se resume en la siguiente tabla:

Edición Coste por hora Número de horas Coste de desarrollo
Developer 0,35 USD 24 24*0,35 = 8,4 USD
Básico 1,80 USD 24 24*1,8 = 43,2 USD
Empresa 4,20 USD 24 24*4,2 = 100,8 USD

Durante ese periodo de 24 horas, has ejecutado un flujo de procesamiento que ha leído datos sin procesar de Cloud Storage, has realizado transformaciones y has escrito los datos en BigQuery cada hora. Cada ejecución de este flujo ha llevado 15 minutos aproximadamente. En otras palabras, los clústeres de Dataproc que se han creado durante estas ejecuciones han estado activos durante 15 minutos (es decir, 0,25 horas) en cada ocasión. Supongamos que la configuración de cada clúster de Dataproc era como se describe a continuación:

Elemento Tipo de máquina CPU virtuales Disco persistente conectado Número de nodos en el clúster
Nodo maestro n1‑standard‑4 4 500 GB 1
Nodos de trabajador n1‑standard‑4 4 500 GB 5

Cada clúster de Dataproc tiene 24 CPU virtuales: 4 para el nodo maestro y 20 distribuidas entre los nodos de trabajador. A la hora de facturar Dataproc, el precio de este clúster se basaría en esas 24 CPU virtuales y en el tiempo de ejecución de cada clúster.

Se puede calcular el precio total que se te va a cobrar por todas las veces que se ha ejecutado el flujo de procesamiento con Dataproc de la siguiente manera:

Dataproc charge = # of vCPUs * number of clusters * hours per cluster * Dataproc price
                      = 24 * 24 * 0.25 * $0.01
                      = $1.44

Los clústeres de Dataproc utilizan otros productos de Google Cloud que se facturan por separado. Concretamente, los clústeres que hemos visto en este ejemplo generarían gastos por utilizar Compute Engine y espacio aprovisionado de un disco persistente estándar. En este caso, se te cobraría por el almacenamiento en Cloud Storage y BigQuery en función de la cantidad de datos que procese tu flujo de procesamiento.

Para determinar estos cargos con las tarifas vigentes, puedes utilizar la calculadora de precios.

Siguientes pasos

Solicitar un presupuesto personalizado

Gracias al modelo de pago por uso de Google Cloud, solo pagas por los servicios que usas. Ponte en contacto con nuestro equipo de Ventas para solicitar un presupuesto personalizado para tu empresa.
Contactar con Ventas