Precios

En este documento se detallan los precios de Cloud Data Fusion. Para ver los precios de otros productos, consulta la documentación sobre precios.

Para fines de fijación de precios, el uso se mide como la cantidad de tiempo, en minutos, entre el momento en el que se crea una instancia de Cloud Data Fusion y el momento en el que se borra. Aunque la tarifa de precios se define por hora, Cloud Data Fusion se factura por minuto. El uso se mide en horas (por ejemplo, 30 minutos son 0.5 horas) para aplicar precios por hora al uso minuto a minuto.

Si pagas en una moneda distinta del dólar estadounidense, se aplican los precios que aparecen en tu moneda en los SKU de Google Cloud.

Descripción general de los precios

Los precios de Cloud Data Fusion se dividen en dos funciones: desarrollo y ejecución de canalizaciones.

Desarrollo

Para el desarrollo de canalizaciones, Cloud Data Fusion ofrece las siguientes tres ediciones:

Edición de Cloud Data Fusion Precio por instancia y por hora
Desarrollador $0.35 (~$250 por mes)
Básica $1.80 (~$1,100 por mes)
Empresarial $4.20 (~$3,000 por mes)

La edición básica ofrece las primeras 120 horas mensuales por cuenta de forma gratuita.

Ejecución

En el caso de la ejecución de canalizaciones, se te cobra por los clústeres de Dataproc que crea Cloud Data Fusion para ejecutar las canalizaciones según las tarifas actuales de Dataproc.

Comparación de las ediciones Básica, Empresarial y Desarrollador

Capacidad Desarrollador Básica Empresarial
Cantidad de usuarios 2 (recomendada) Ilimitada Ilimitada
Cargas de trabajo Desarrollo y exploración del producto Prueba, zona de pruebas y prueba de concepto Producción
Diseñador visual
Ecosistema de conectores
Transformaciones visuales
SDK de desarrollador para extensibilidad
Calidad de los datos y biblioteca de limpieza
Asistencia de IP privada
Depuración y pruebas (modo programático y visual)
Transformaciones de agregación, unión y combinación
Estructurados, no estructurados, semiestructurados
Canalizaciones de transmisión
Repositorio de metadatos de integración
Linaje de integración; nivel de conjunto de datos y campo
Alta disponibilidad Zonal Regional
(menor capacidad)
Regional
(mayor capacidad)
Entorno de ejecución Dataproc efímero de 1 trabajador Dataproc efímero de 2 trabajadores Dataproc, Hadoop y EMR efímeros y dedicados
Asistencia de DevOps; API de REST
Activadores/programas
Selección de entornos de ejecución

Uso de otros recursos de Google Cloud

Además del costo de desarrollo de una instancia de Cloud Data Fusion, se facturan solo los recursos que usas para ejecutar tus canalizaciones, por ejemplo:

Regiones admitidas

Nota: En la actualidad los precios de Cloud Data Fusion son los mismos para todas las regiones admitidas.

Región Ubicación
asia-east1 Condado de Changhua, Taiwán
asia-east2 Hong Kong
asia-northeast1 Tokio, Japón
asia-northeast2 Osaka, Japón
asia-northeast3 Seúl, Corea del Sur
asia-south1 Bombay, India
asia-southeast1 Jurong West, Singapur
australia-southeast1 Sídney, Australia
europe-north1 Hamina, Finlandia
europe-west1 Saint‑Ghislain, Bélgica
europe-west2 Londres, Inglaterra, Reino Unido
europe-west3 Fráncfort, Alemania
europe-west4 Puerto de Ems, Países Bajos
europe-west6 Zúrich, Suiza
northamerica-northeast1 Montreal, Quebec, Canadá
southamerica-east1 Osasco (São Paulo), Brasil
us-central1 Council Bluffs, Iowa, EE.UU.
us-east1 Moncks Corner, Carolina del Sur, EE.UU.
us-east4 Ashburn, Virginia, EE.UU.
us-west1 The Dalles, Oregón, EE.UU.
us-west2 Los Ángeles, California, EE.UU.

Ejemplo de precios

Considera una situación en la que una instancia de Cloud Data Fusion estuvo en ejecución por 10 horas y ya no quedan horas gratis para la edición Básica. Según la edición, el cargo de desarrollo para Cloud Data Fusion se resume en la siguiente tabla:

Edición Costo por hora Cantidad de horas Costo de desarrollo
Desarrollador $0.35 10 10 × 0.35 = $3.50
Básica $1.80 10 10 × 1.8 = $18
Empresarial $4.20 10 10 * 4.2 = $42

Durante este período de 10 horas, se ejecutó una canalización que lee datos sin procesar de Cloud Storage, se realizaron transformaciones y se escribieron datos en BigQuery cada hora. Cada ejecución tardó alrededor de 15 minutos en completarse. En otras palabras, los clústeres de Dataproc que se crearon para estas ejecuciones estuvieron activos por 15 minutos (0.25 horas). Supongamos que la configuración de cada clúster de Dataproc constaba de los siguientes requisitos:

Elemento Tipo de máquina CPU virtuales Disco persistente conectado Cantidad en el clúster
Nodo principal n1-standard-4 4 500 GB 1
Nodos trabajadores n1-standard-4 4 500 GB 5

Cada clúster de Dataproc cuenta con 24 CPU virtuales: 4 para el nodo principal y 20 distribuidas entre los nodos trabajadores. Para los propósitos de facturación de Dataproc, el precio de este clúster se calcularía según esas 24 CPU virtuales y la cantidad de tiempo durante el que se ejecutó cada clúster.

En todas las ejecuciones de tu canalización, los cargos de Dataproc se calculan como se muestra en el siguiente ejemplo:

Dataproc charge = # of vCPUs * number of clusters * hours per cluster * Dataproc price
                      = 24 * 10 * 0.25 * $0.01
                      = $0.60

Los clústeres de Dataproc usan otros productos de Google Cloud, que se facturan por separado. En particular, estos clústeres generarían cargos por el espacio aprovisionado de Compute Engine y Persistent Disk estándar. Se generarán cargos de almacenamiento de Cloud Storage y BigQuery de acuerdo con la cantidad de datos que procese la canalización.

A fin de determinar estos costos adicionales según las tarifas actuales, puedes usar la calculadora de facturación.