Precios de Cloud Data Fusion
En este documento se detallan los precios de Cloud Data Fusion. Para ver los precios de otros productos, consulta la documentación sobre precios.
Para fines de fijación de precios, el uso se mide como la cantidad de tiempo, en minutos, entre el momento en el que se crea una instancia de Cloud Data Fusion y el momento en el que se borra. Aunque la tarifa de precios se define por hora, Cloud Data Fusion se factura por minuto. El uso se mide en horas (por ejemplo, 30 minutos son 0.5 horas) para aplicar precios por hora al uso minuto a minuto.
Si pagas en una moneda distinta del dólar estadounidense, se aplican los precios que aparecen en tu moneda en los SKU de Google Cloud.
Descripción general de los precios
Los precios de Cloud Data Fusion se dividen en dos funciones: desarrollo y ejecución de canalizaciones.
Desarrollo
Para el desarrollo de canalizaciones, Cloud Data Fusion ofrece las siguientes tres ediciones:
Edición de Cloud Data Fusion | Precio por instancia y por hora |
---|---|
Desarrollador | $0.35 (~$250 por mes) |
Básica | $1.80 (~$1,100 por mes) |
Empresarial | $4.20 (~$3,000 por mes) |
La edición básica ofrece las primeras 120 horas mensuales por cuenta de forma gratuita.
Ejecución
En el caso de la ejecución de canalizaciones, se te cobra por los clústeres de Dataproc que crea Cloud Data Fusion para ejecutar las canalizaciones según las tarifas actuales de Dataproc.
Comparación de las ediciones Básica, Empresarial y Desarrollador
Función | Desarrollador | Básico | Enterprise |
---|---|---|---|
Cantidad de usuarios simultáneos | 2 | Limitada* | Limitada* |
Cargas de trabajo | Desarrollo y exploración del producto | Pruebas, zona de pruebas, prueba de concepto | Producción |
Compatibilidad con IP internas | |||
Control de acceso según la función (RBAC) | |||
Diseñador visual | |||
Ecosistema de conectores | |||
Transformaciones visuales | |||
Estructurados, no estructurados, semiestructurados | |||
Canalizaciones de transmisión | |||
Linaje de integración; nivel de conjunto de datos y campo | |||
Integración en Dataplex | |||
Alta disponibilidad | Zonal | Regional | Regional |
Crear y personalizar perfiles de procesamiento | |||
Compatibilidad con DevOps: API de REST y administración de control de fuente | |||
Activadores y programas | |||
Selección de entornos de ejecución | |||
Ejecución simultánea de canalizaciones | Limitada** | Limitada** | |
SDK de desarrollador para extensibilidad |
Uso de otros recursos de Google Cloud
Además del costo de desarrollo de una instancia de Cloud Data Fusion,se te facturan solo los recursos que usas para ejecutar tus canalizaciones, por ejemplo:
Regiones admitidas
En la actualidad los precios de Cloud Data Fusion son los mismos para todas las regiones admitidas.
Región | Ubicación |
---|---|
africa-south1
* |
Johannesburgo, Sudáfrica |
asia-east1 |
Condado de Changhua, Taiwán |
asia-east2 |
Hong Kong |
asia-northeast1 |
Tokio, Japón |
asia-northeast2 |
Osaka, Japón |
asia-northeast3 |
Seúl, Corea del Sur |
asia-south1 |
Bombay, India |
asia-south2 |
Delhi, India |
asia-southeast1 |
Jurong West, Singapur |
asia-southeast2 |
Yakarta, Indonesia |
australia-southeast1 |
Sídney, Australia |
europe-north1 |
Hamina, Finlandia |
europe-southwest1 |
Madrid, España |
europe-west1 |
Saint‑Ghislain, Bélgica |
europe-west2 |
Londres, Inglaterra, Reino Unido |
europe-west3 |
Fráncfort, Alemania |
europe-west4 |
Puerto de Ems, Países Bajos |
europe-west6 |
Zúrich, Suiza |
europe-west8 |
Milán, Italia |
europe-west9 |
París, Francia |
europe-west12
* |
Turín, Italia |
me-central1 * |
Doha, Catar |
me-central2 * |
Dammam, Arabia Saudita |
me-west1 |
Tel Aviv, Israel |
northamerica-northeast1 |
Montreal, Quebec, Canadá |
southamerica-east1 |
Osasco (São Paulo), Brasil |
southamerica-west1 |
Santiago, Chile |
us-central1 |
Council Bluffs, Iowa, Norteamérica |
us-east1 |
Moncks Corner, Carolina del Sur, Norteamérica |
us-east4 |
Ashburn, Virginia del Norte, Norteamérica |
us-east5 |
Columbus, Ohio, Norteamérica |
us-south1 |
Dallas, Texas, Norteamérica |
us-west1 |
The Dalles, Oregón, Norteamérica |
us-west2 |
Los Ángeles, California, Norteamérica |
africa-south1
,
me-central1
, me-central1
ni
europe-west12
.
Ejemplo de precios
Considera una instancia de Cloud Data Fusion que se ejecutó durante 24 horas y no quedan horas gratis para la edición básica. Según la edición, el cargo de instancia de Cloud Data Fusion se resume en la siguiente tabla:
Edición | Costo por hora | Cantidad de horas | Costo de desarrollo |
---|---|---|---|
Desarrollador | $0.35 | 24 | 24*0.35 = $8.4 |
Básico | $1.80 | 24 | 24 × 1.8 = $43.2 |
Enterprise | $4.20 | 24 | 24 × 4.2 = $100.8 |
Durante este período de 24 horas, ejecutaste una canalización que lee datos sin procesar de Cloud Storage, realizaste transformaciones y escribiste los datos en BigQuery cada hora. Cada ejecución tardó alrededor de 15 minutos en completarse. En otras palabras, los clústeres de Dataproc que se crearon para estas ejecuciones estuvieron activos por 15 minutos (0.25 horas). Supongamos que la configuración de cada clúster de Dataproc constaba de los siguientes requisitos:
Elemento | Tipo de máquina | CPU virtuales | Disco persistente conectado | Cantidad en el clúster |
---|---|---|---|---|
Nodo principal | n1-standard-4 | 4 | 500 GB | 1 |
Nodos trabajadores | n1-standard-4 | 4 | 500 GB | 5 |
Cada clúster de Dataproc cuenta con 24 CPU virtuales: 4 para el nodo principal y 20 distribuidas entre los nodos trabajadores. Para los propósitos de facturación de Dataproc, el precio de este clúster se calcularía según esas 24 CPU virtuales y la cantidad de tiempo durante el que se ejecutó cada clúster.
En todas las ejecuciones de tu canalización, los cargos de Dataproc se calculan como se muestra en el siguiente ejemplo:
Dataproc charge = # of vCPUs * number of clusters * hours per cluster * Dataproc price = 24 * 24 * 0.25 * $0.01 = $1.44
Los clústeres de Dataproc usan otros productos de Google Cloud, que se facturan por separado. En particular, estos clústeres generarían cargos por el espacio aprovisionado de Compute Engine y Persistent Disk estándar. Se generarán cargos de almacenamiento de Cloud Storage y BigQuery de acuerdo con la cantidad de datos que procese la canalización.
A fin de determinar estos costos adicionales según las tarifas actuales, puedes usar la calculadora de facturación.
¿Qué sigue?
- Consulta la documentación de Cloud Data Fusion.
- Comienza a usar Cloud Data Fusion.
- Prueba la calculadora de precios.