Preço

Este documento mostra como os preços do Cloud Data Fusion são determinados. Para os preços de outros produtos, leia a respectiva documentação.

Os preços são determinados de acordo com o uso, que é medido pelo intervalo, em minutos, entre a criação e a exclusão de uma instância do Cloud Data Fusion. A taxa de preços é baseada em hora, mas o uso do Cloud Data Fusion é faturado por minuto. Isso é medido em horas (30 minutos são 0,5 hora, por exemplo) para aplicar preços por hora ao uso por minuto.

Se você fizer pagamentos em uma moeda que não seja o dólar americano, serão aplicados os preços listados na sua moeda em SKUs do Google Cloud (em inglês).

Visão geral dos preços

O preço do Cloud Data Fusion é dividido em duas funções: desenvolvimento e execução de pipeline.

Desenvolvimento

Para o desenvolvimento de pipeline, o Cloud Data Fusion oferece as seguintes duas edições:

Edição do Cloud Data Fusion Preço por instância por hora
Desenvolvedor US$ 0,35 (aproximadamente US$ 250 por mês)
Basic US$ 1,80 (aproximadamente US$ 1.100 por mês)
Enterprise US$ 4,20 (aproximadamente US$ 3.000 por mês)

A edição Basic oferece as primeiras 120 horas do mês por usuário gratuitamente.

Execução

Para a execução de pipeline, os clusters do Cloud Dataproc são cobrados. Esses clusters são criados no Cloud Data Fusion para executar pipelines nas taxas atuais do Dataproc.

Comparação entre as edições Desenvolvedor, Basic e Enterprise

Funcionalidades Desenvolvedor Basic Enterprise
Número de usuários 2 (recomendado) Ilimitado Ilimitado
Cargas de trabalho Desenvolvimento, exploração do produto Testes, sandbox, prova do conceito (PoC, na sigla em inglês) Produção
Designer visual
Ecossistema do conector
Transformações visuais
SDK do desenvolvedor para extensibilidade
Biblioteca de limpeza e qualidade dos dados
Compatibilidade com IP particular
Depuração e teste (programático e visual)
Transformações de agregação, mistura e mesclagem
Estruturado, não estruturado, semiestruturado
Pipelines de streaming
Repositório de metadados de integração
Linhagem de integração: nível de campo e de conjunto de dados
Alta disponibilidade Zonal Regional
(capacidade menor)
Regional
(capacidade maior)
Ambiente de execução Dataproc temporário com um worker Dataproc temporário com dois workers Dataproc, Hadoop e EMR dedicado e temporário
Compatibilidade com DevOps: API REST
Acionadores/programações
Seleção do ambiente de execução

Utilização de outros recursos do Google Cloud

Além do custo de desenvolvimento de uma instância do Cloud Data Fusion, você será cobrado apenas pelos recursos usados para executar seus pipelines, como:

Regiões compatíveis

Atualmente, o preço do Cloud Data Fusion é o mesmo para todas as regiões compatíveis.

Região Local
asia-east1 Changhua County, Taiwan
asia-east2 Hong Kong
asia-northeast1 Tóquio, Japão
asia-northeast2 Osaka, Japão
asia-south1 Mumbai, Índia
asia-southeast1 Jurong West, Singapura
australia-southeast1 Sydney, Austrália
europe-north1 Hamina, Finlândia
europe-west1 St. Ghislain, Bélgica
europe-west2 Londres, Inglaterra, Reino Unido
europe-west3 Frankfurt, Alemanha
europe-west4 Eemshaven, Países Baixos
europe-west6 Zurique, Suíça
northamerica-northeast1 Montreal, Quebec, Canadá
southamerica-east1 Osasco (São Paulo), Brasil
us-central1 Council Bluffs, Iowa, EUA
us-east1 Moncks Corner, Carolina do Sul, EUA
us-east4 Ashburn, Virgínia do Norte, EUA
us-west1 The Dalles, Oregon, EUA
us-west2 Los Angeles, Califórnia, EUA

Exemplo de preço

Suponha que uma instância do Cloud Data Fusion esteja em execução há 10 horas e não haja horas gratuitas disponíveis para a edição Basic. De acordo com a edição, a taxa de desenvolvimento do Cloud Data Fusion é resumida na tabela a seguir:

Edição Custo por hora Número de horas Custo de desenvolvimento
Desenvolvedor US$ 0,35 10 10 * 0,35 = US$ 3,50
Basic US$ 1,80 10 10 x 1,8 = US$ 18
Enterprise US$ 4,20 10 10 x 4,2 = US$ 42

Durante esse período de 10 horas, você executou um pipeline que leu dados brutos do Cloud Storage, realizou transformações e gravou os dados no BigQuery a cada hora. Cada execução levou cerca de 15 minutos para ser concluída. Ou seja, os clusters do Dataproc criados para essas execuções estavam ativos por 15 minutos (0,25 hora) cada. Suponha que a configuração de cada cluster do Dataproc foi a seguinte:

Item Tipo de máquina CPUs virtuais Disco permanente anexado Número no cluster
Nó mestre n1-standard-4 4 500 GB 1
Nós de trabalho n1-standard-4 4 500 GB 5

Cada cluster do Dataproc tem 24 CPUs virtuais, 4 para o mestre e 20 distribuídas pelos workers. Para fins de faturamento do Dataproc, o preço desse cluster baseia-se nas 24 CPUs virtuais e no ambiente de execução dele.

Em todas as execuções do pipeline, o custo total incorrido para o Dataproc pode ser calculado como:

Dataproc charge = # of vCPUs * number of clusters * hours per cluster * Dataproc price
                      = 24 * 10 * 0.25 * $0.01
                      = $0.60

Os clusters do Dataproc usam outros produtos do Google Cloud, que seriam faturados separadamente. Especificamente, esses clusters teriam custos para o Compute Engine e o espaço provisionado do disco permanente padrão. Você estará sujeito a custos de armazenamento para o Cloud Storage e para o BigQuery, dependendo da quantidade de dados que seu pipeline processa.

Para determinar esses custos extras com base nas taxas atuais, use a calculadora de faturamento.