A tabela abaixo oferece uma ideia aproximada do custo mensal total de execução de um cluster. A tabela compara o custo de executar o código de código aberto por conta própria com o custo do serviço gerenciado.
Largura de banda do produtor | Preço mensal estimado (USD) | |
---|---|---|
Apache Kafka no Compute Engine | Serviço gerenciado para Apache Kafka (consulte a calculadora de preços) | |
10 MiB/s | US$ 0,9 mil | US$ 1,1 mil |
100 MiB/s | US$ 9,1 mil | US$ 11 mil |
Essa estimativa considera o seguinte:
Em geral, o custo total da execução de um cluster do Managed Service para Apache Kafka depende do tamanho do cluster, do volume de dados que você publica e consome, bem como da duração do armazenamento dos dados. Como guia geral, você pode considerar que uma única vCPU pode lidar com 20 MiB/s de tráfego de publicação e 80 MiB/s de tráfego de consumidor.
Além disso, um parâmetro importante a ser considerado é a utilização média da RAM e da capacidade de vCPU. O tráfego imprevisível e variável exige uma utilização média baixa para acomodar os picos na largura de banda do produtor ou do consumidor.
Para clusters com utilização acima de 20%, o custo da transferência de dados entre zonas é o maior componente do custo total. Esse custo vem da replicação de dados entre os corretores líder e seguidor, bem como do tráfego de transferência de dados entre clientes e corretores. Você pode reduzir esse custo configurando seus clientes consumidores para usar réplicas locais e compactando seus dados. Se a alta disponibilidade e durabilidade do armazenamento não forem essenciais para um tópico, você também poderá reduzir o número de réplicas armazenadas para um determinado tópico e diminuir os custos de replicação.
O custo de operação de um Serviço gerenciado para Apache Kafka consiste em cobranças relacionadas à execução de clusters do Kafka, clusters do Connect e taxas do Private Service Connect (PSC) para acesso ao cluster. Você pode calcular os custos do Serviço gerenciado para Apache Kafka usando a calculadora de preços.
Para saber como economizar 40% com um compromisso de três anos ou 20% com um compromisso de um ano em computação, consulte nossa página de descontos por compromisso de uso (CUDs). Os CUDs não se aplicam a clusters do Connect.
Para dimensionar ou escalonar um cluster do Serviço gerenciado para Apache Kafka, você precisa definir a contagem total de vCPUs e o tamanho da RAM do cluster do Kafka. Para isso, você precisa primeiro entender a capacidade de processamento que seu cluster do Kafka pode lidar. Para mais informações sobre como estimar a capacidade de processamento, consulte Estimar vCPUs e memória para seu cluster.
As cobranças do cluster são feitas usando os três SKUs na região em que você executa o cluster:
Componente | Default* (USD) | Managed Service for Apache Kafka CUD - 1 Year* (USD) | Managed Service for Apache Kafka CUD - 3 Year* (USD) |
---|---|---|---|
CPU+RAM | US$ 0,09 / 1 hour | US$ 0,072 / 1 hour | US$ 0,054 / 1 hour |
Conecte CPU+RAM | US$ 0,12 / 1 hour | US$ 0,096 / 1 hour | US$ 0,072 / 1 hour |
Armazenamento local | US$ 0,000232877 / 1 gibibyte hour | - | - |
Armazenamento de longo prazo | US$ 0,000136986 / 1 gibibyte hour | - | - |
Componente | Preço (US$) |
---|---|
Transferência de dados entre zonas | US$ 0,01 / 1 gibibyte, per 1 month / account |
Cobranças de computação
O uso de vCPU e RAM é informado em termos de unidades abstratas chamadas unidades de computação de dados (DCUs). Uma maneira simples de pensar nessa unidade é que uma única vCPU com 4 GiB de RAM corresponde a 1 DCU.
Por exemplo, um cluster com 6 vCPUs e 4 GiB de RAM por vCPU consome 6 DCUs. O custo desse cluster é de 6 DCUs * US$ 0,09 / hora / DCU = US$ 0,54 / hora em us-central1.
No entanto, é possível usar quantidades diferentes de RAM por vCPU nos clusters. Os fatores de conversão de recursos de computação para DCUs são descritos na tabela a seguir:
Recursos de computação | Valores equivalentes de DCU |
---|---|
1 vCPU | 0,6 |
1 GiB de RAM | 0,1 |
Quando você usa 1 GiB de RAM por uma hora, paga por 0,1 DCUs nessa hora.
Consulte a página de criação de cluster para estimar o tamanho do cluster.
Cobranças de armazenamento
Você recebe cobranças pelo armazenamento de disco permanente local provisionado para cada broker, bem como pelo armazenamento de longo prazo usado pelo sistema de armazenamento em camadas.
Você recebe uma cobrança de 100 GB de armazenamento local por CPU em cada cluster.
O armazenamento de longo prazo é usado quando o sistema de armazenamento em camadas move dados do disco local. Você paga pelo armazenamento de uma única réplica de cada tópico no armazenamento de longo prazo.
Por exemplo, se você tiver um cluster com 3 vCPUs e seus clientes produtores produzirem 50 GB de dados para ele, você pagará por
Os clusters do Connect não geram custos de armazenamento porque os conectores não têm estado.
Custos de rede entre zonas
Um cluster do Serviço gerenciado para Apache Kafka replica dados em várias zonas. Você recebe cobranças pela transferência de dados entre zonas no cluster. O custo é de US $0,01 por 1 gibibyte. Por padrão, o fator de replicação de um cluster é 3. Isso significa que você paga pela transferência de dados entre zonas para replicar dados em 2 das 3 zonas.
Digamos que você tenha um cluster com um fator de replicação de 3, que é o padrão. Você grava 10 GiB de dados em uma única zona. Com um fator de replicação de 3, seus 10 GiB de dados são copiados para outras duas zonas. Um total de 20 GiB de dados (10 GiB x 2 cópias) é transferido. O custo dessa transferência de dados entre zonas é de US $0,20 (20 GiB x US $0,01/GiB).
Os workers do cluster de conexão não trocam dados entre si.
Custos de rede entre regiões
Se você implantar um conector que lê ou grava dados em diferentes regiões, será cobrado pelas taxas padrão de transferência de dados entre regiões. Isso pode variar entre US $0,02 e US $0,14 por GiB, dependendo do par de regiões de origem e destino. Para conferir as informações mais atualizadas sobre os preços de transferência de dados entre regiões, consulte a subseção "Preços da transferência de dados entre VMs no Google Cloud" no guia de peering de VPC. Os clusters de conexão usam os mesmos endpoints provisionados pelo cluster do serviço gerenciado para Apache Kafka para trocar dados.
O serviço gerenciado para Apache Kafka configura todos os endpoints do Private Service Connect (PSC) para seu serviço. Esses endpoints são recursos em um projeto que você possui e são cobrados separadamente. Saiba mais sobre como o PSC é usado aqui. As cobranças do PSC incluem os seguintes componentes:
Os workers pertencentes a um cluster do Connect agem como clientes em relação ao seu cluster do Serviço gerenciado para Apache Kafka. Ao estimar o custo da sua implantação do Connect, lembre-se de considerar o aumento das cobranças de processamento de dados do consumidor.
Para obter as informações mais atualizadas sobre os preços da VPC, consulte a subseção "Como usar um endpoint do Private Service Connect (regra de encaminhamento) para acessar um serviço publicado" na seção "Private Service Connect" do guia de preços da VPC.