Precios de Cloud Data Fusion
En este documento se detallan los precios de Cloud Data Fusion. Para ver los precios de otros productos, consulta la documentación sobre precios.
Para fines de fijación de precios, el uso se mide como la cantidad de tiempo, en minutos, entre el momento en el que se crea una instancia de Cloud Data Fusion y el momento en el que se borra. Aunque la tarifa de precios se define por hora, Cloud Data Fusion se factura por minuto. El uso se mide en horas (por ejemplo, 30 minutos son 0.5 horas) para aplicar precios por hora al uso minuto a minuto.
Si pagas en una moneda distinta del dólar estadounidense, se aplican los precios que aparecen en tu moneda en los SKU de Google Cloud.
Descripción general de los precios
Los precios de Cloud Data Fusion se dividen en dos funciones: desarrollo y ejecución de canalizaciones.
Desarrollo
Para el desarrollo de canalizaciones, Cloud Data Fusion ofrece las siguientes tres ediciones:
Edición de Cloud Data Fusion | Precio por instancia y por hora |
---|---|
Desarrollador | $0.35 (~$250 por mes) |
Básica | $1.80 (~$1,100 por mes) |
Empresarial | $4.20 (~$3,000 por mes) |
La edición básica ofrece las primeras 120 horas mensuales por cuenta de forma gratuita.
Ejecución
En el caso de la ejecución de canalizaciones, se te cobra por los clústeres de Dataproc que crea Cloud Data Fusion para ejecutar las canalizaciones según las tarifas actuales de Dataproc.
Comparación de las ediciones Básica, Empresarial y Desarrollador
Función | Desarrollador | Básico | Enterprise |
---|---|---|---|
Cantidad de usuarios simultáneos | 2 | Limitada* | Limitada* |
Cargas de trabajo | Desarrollo y exploración del producto | Prueba, zona de pruebas y prueba de concepto | Producción |
Asistencia de IP interna | |||
Control de acceso según la función (RBAC) | |||
Diseñador visual | |||
Ecosistema de conectores | |||
Transformaciones visuales | |||
Estructurados, no estructurados, semiestructurados | |||
Canalizaciones de transmisión | |||
Linaje de integración; nivel de conjunto de datos y campo | |||
Integración con Dataplex | |||
Alta disponibilidad | Zonal | Regional | Regional |
Crear y personalizar perfiles de procesamiento | |||
Asistencia de DevOps: API de REST, administración del control de origen | |||
Activadores y programas | |||
Selección de entornos de ejecución | |||
Ejecución de la canalización simultánea | Limitado** | Limitado** | |
SDK de desarrollador para extensibilidad |
Uso de otros recursos de Google Cloud
Además del costo de desarrollo de una instancia de Cloud Data Fusion,se facturan solo los recursos que usas para ejecutar tus canalizaciones, como los siguientes:
Regiones admitidas
En la actualidad los precios de Cloud Data Fusion son los mismos para todas las regiones admitidas.
Región | Ubicación |
---|---|
africa-south1
* |
Johannesburgo, Sudáfrica |
asia-east1 |
Condado de Changhua, Taiwán |
asia-east2 |
Hong Kong |
asia-northeast1 |
Tokio, Japón |
asia-northeast2 |
Osaka, Japón |
asia-northeast3 |
Seúl, Corea del Sur |
asia-south1 |
Bombay, India |
asia-south2 |
Delhi, India |
asia-southeast1 |
Jurong West, Singapur |
asia-southeast2 |
Yakarta, Indonesia |
australia-southeast1 |
Sídney, Australia |
europe-north1 |
Hamina, Finlandia |
europe-southwest1 |
Madrid, España |
europe-west1 |
Saint‑Ghislain, Bélgica |
europe-west2 |
Londres, Inglaterra, Reino Unido |
europe-west3 |
Fráncfort, Alemania |
europe-west4 |
Puerto de Ems, Países Bajos |
europe-west6 |
Zúrich, Suiza |
europe-west8 |
Milán, Italia |
europe-west9 |
París, Francia |
europe-west12
* |
Turín, Italia |
me-central1 * |
Doha, Catar |
me-central2 * |
Dammam, Arabia Saudita |
me-west1 |
Tel Aviv, Israel |
northamerica-northeast1 |
Montreal, Quebec, Canadá |
southamerica-east1 |
Osasco (São Paulo), Brasil |
southamerica-west1 |
Santiago, Chile |
us-central1 |
Council Bluffs, Iowa, Norteamérica |
us-east1 |
Moncks Corner, Carolina del Sur, Norteamérica |
us-east4 |
Ashburn, Virginia del Norte, Norteamérica |
us-east5 |
Columbus, Ohio, Norteamérica |
us-south1 |
Dallas, Texas, Norteamérica |
us-west1 |
The Dalles, Oregón, Norteamérica |
us-west2 |
Los Ángeles, California, Norteamérica |
africa-south1
,
me-central1
, me-central1
, o
europe-west12
.
Ejemplo de precios
Considera una situación en la que una instancia de Cloud Data Fusion estuvo en ejecución por 24 horas y ya no quedan horas gratis para la edición Básica. Según la edición, el cargo de instancia para Cloud Data Fusion se resume en la siguiente tabla:
Edición | Costo por hora | Cantidad de horas | Costo de desarrollo |
---|---|---|---|
Desarrollador | $0.35 | 24 | 24 × 0.35 = $8.4 |
Básico | $1.80 | 24 | 24 × 1.8 = $43.2 |
Enterprise | $4.20 | 24 | 24*4.2 = USD 100.8 |
Durante este período de 24 horas, se ejecutó una canalización que leyó los datos sin procesar de Cloud Storage, realizó transformaciones y escribió los datos en BigQuery cada hora. Cada ejecución tardó alrededor de 15 minutos en completarse. En otras palabras, los clústeres de Dataproc que se crearon para estas ejecuciones estuvieron activos por 15 minutos (0.25 horas). Supongamos que la configuración de cada clúster de Dataproc constaba de los siguientes requisitos:
Elemento | Tipo de máquina | CPU virtuales | Disco persistente conectado | Cantidad en el clúster |
---|---|---|---|---|
Nodo principal | n1-standard-4 | 4 | 500 GB | 1 |
Nodos trabajadores | n1-standard-4 | 4 | 500 GB | 5 |
Cada clúster de Dataproc cuenta con 24 CPU virtuales: 4 para el nodo principal y 20 distribuidas entre los nodos trabajadores. Para los propósitos de facturación de Dataproc, el precio de este clúster se calcularía según esas 24 CPU virtuales y la cantidad de tiempo durante el que se ejecutó cada clúster.
En todas las ejecuciones de tu canalización, los cargos de Dataproc se calculan como se muestra en el siguiente ejemplo:
Dataproc charge = # of vCPUs * number of clusters * hours per cluster * Dataproc price = 24 * 24 * 0.25 * $0.01 = $1.44
Los clústeres de Dataproc usan otros productos de Google Cloud, que se facturan por separado. En particular, estos clústeres generarían cargos por el espacio aprovisionado de Compute Engine y disco persistente estándar. Se generarán cargos de almacenamiento de Cloud Storage y BigQuery, de acuerdo con la cantidad de datos que procese la canalización.
A fin de determinar estos costos adicionales según las tarifas actuales, puedes usar la calculadora de facturación.
¿Qué sigue?
- Consulta la documentación de Cloud Data Fusion.
- Comienza a usar Cloud Data Fusion.
- Prueba la calculadora de precios.