Os preços são indicados em dólares americanos (US$).
Se você não paga em dólar americano, são aplicados os preços na sua moeda local listados
na página SKUs do Cloud Platform.
Preços da Vertex AI em comparação com produtos legados
Os custos da Vertex AI permanecem os mesmos dos produtos legados
da AI Platform e do AutoML que a Vertex AI
substitui, com as seguintes exceções:
As previsões legadas do AI Platform Prediction e do AutoML Tables oferecem suporte a tipos de máquina de baixo custo e baixo desempenho que não recebem
suporte da Vertex AI Prediction e do AutoML tabular.
O AI Platform Prediction legado oferece suporte à redução da escala a zero, que
não é aceita pela Vertex AI Prediction.
A Vertex AI também oferece mais maneiras de otimizar custos, como as seguintes:
Para modelos do AutoML na Vertex AI, você paga por três atividades principais:
Treinamento do modelo
Implantação do modelo em um endpoint
Uso do modelo para fazer previsões
A Vertex AI usa configurações de máquina predefinidas para modelos do Vertex AutoML,
e a taxa por hora dessas atividades reflete o uso dos recursos.
O tempo necessário para treinar o modelo depende do tamanho e da complexidade dos dados de treinamento. É preciso implantar os modelos para que possam fornecer
previsões ou explicações on-line.
Você paga por cada modelo implantado em um endpoint, mesmo que nenhuma previsão seja feita.
É preciso cancelar a implantação do modelo para suspender cobranças futuras.
Modelos que não foram implantados ou que falharam na implantação não serão cobrados.
Você paga apenas pelas horas de computação usadas. Se houver falha no treinamento por qualquer motivo
que não seja um cancelamento iniciado pelo usuário, você não vai receber cobranças pelo
tempo. Se você cancelar a operação, o tempo de treinamento será cobrado.
Selecione um tipo de modelo abaixo para conferir as informações de preço.
A computação associada à Vertex Explainable AI é cobrada na mesma taxa que a previsão.
Contudo, as explicações levam mais tempo para serem processadas do que as previsões normais.
Por isso, o uso pesado do Vertex Explainable AI com o escalonamento automático resultaria em mais nós sendo
iniciados, o que aumentaria as cobranças de previsão.
Confira nas tabelas abaixo o preço por hora aproximado de várias configurações
de treinamento. É possível escolher configurações personalizadas de tipos de máquinas selecionados. Para calcular os preços,
some os custos das máquinas virtuais usadas por você.
Se você usar tipos de máquina do Compute Engine e
anexar aceleradores, o custo destes será separado. Para calcular esse custo,
multiplique os preços da tabela abaixo pelo número de
aceleradores de cada tipo que você usa.
Tipos de máquina
*Esse valor inclui o preço da GPU, já que esse tipo de instância sempre exige um número fixo de aceleradores de GPU.
Se você não paga em dólar americano, são aplicados os preços na sua moeda local listados na página
SKUs do Cloud Platform.
Aceleradores
Se você não paga em dólar americano, são aplicados os preços na sua moeda local listados
na página
SKUs do Cloud Platform.
* O preço para treinar usando um pod do Cloud TPU é baseado no
número de núcleos do pod. O número de núcleos de um pod é sempre um múltiplo de
32. Para determinar o preço de treinar em um pod com mais de 32 núcleos,
pegue o preço de um pod de 32 núcleos e multiplique pelo número de núcleos,
depois divida por 32. Por exemplo, o preço de um pod de 128 núcleos é
(32-core Pod price) * (128/32). Para mais informações sobre quais pods do
Cloud TPU estão disponíveis para regiões específicas, consulte Arquitetura do sistema
na documentação do Cloud TPU.
Discos
Se você não paga em dólar americano, são aplicados os preços na sua moeda local listados
na página
SKUs do Cloud Platform.
Seus dados e arquivos de programas precisam ser armazenados nos
buckets do Google Cloud Storage durante o ciclo de vida da Vertex AI.
Saiba mais sobre o uso do Cloud Storage.
Você recebe cobranças pelo treinamento dos modelos a contar do momento em que os recursos são
provisionados para um job até a finalização dele.
Níveis de escalonamento para configurações predefinidas (AI Platform Training)
Defina o tipo de cluster de processamento que será usado ao treinar seu modelo.
A maneira mais simples é escolher uma das configurações predefinidas, chamadas níveis de escalonamento. Saiba mais sobre os
níveis de escalonamento.
Tipos de máquinas para configurações personalizadas
Se você usa a Vertex AI ou seleciona CUSTOM como seu nível de escalonamento no
AI Platform Training, você tem controle sobre o número
e o tipo de máquinas virtuais que serão usadas para o mestre, o worker e o servidor de parâmetros
do cluster. Leia mais sobre
tipos de máquinas para Vertex AI e
tipos de máquinas para AI Platform Training.
O custo do treinamento com um cluster de processamento personalizado será a soma de todas
as máquinas que você especificar. A cobrança é baseada no tempo total do job, e não no
tempo de processamento ativo de máquinas individuais.
Serviço de avaliação de IA generativa
O Serviço de avaliação de IA generativa da Vertex AI cobra por 1.000 caracteres de entrada e saída de string. Um caractere é definido como um caractere Unicode. O espaço em branco é excluído da contagem. A solicitação de avaliação com falha, incluindo a resposta filtrada, não será cobrada por entrada nem saída. No final de cada ciclo de faturamento, as frações de um centavo (US$ 0,01) são arredondadas para um centavo.
O Serviço de avaliação de IA generativa está disponível para todos os usuários (GA). Os preços entraram em vigor
em 27 de setembro de 2024.
Métrica
Preços
Por ponto
Entrada: US$ 0,005 por 1.000 caracteres Saída: US$ 0,015 por 1.000 caracteres
Por par
Entrada: US$ 0,005 por 1.000 caracteres Saída: US$ 0,015 por 1.000 caracteres
As métricas com base em computação são cobradas a US $0,00003 por 1.000 caracteres de entrada e US $0,00009 por 1.000 caracteres de saída. Elas são chamadas de Métrica automática na SKU.
Nome da métrica
Tipo
Correspondência exata
Baseado em computação
A Liberdade é Azul
Baseado em computação
Rouge
Baseado em computação
Chamada de ferramenta válida
Baseado em computação
Correspondência de nome da ferramenta
Baseado em computação
Correspondência de chave de parâmetro da ferramenta
Baseado em computação
Correspondência de KV de parâmetro da ferramenta
Baseado em computação
Os preços são indicados em dólares americanos (USD).
Se você não paga em dólar americano, valem os preços na sua moeda local listados
na página SKUs do Cloud Platform.
As métricas legados baseadas em modelos são cobradas a US $0,005 por 1.000 caracteres de entrada e US $0,015 por 1.000 caracteres de saída.
Nome da métrica
Tipo
Coerência
Por ponto
Fluência
Por ponto
Fulfillment
Por ponto
Segurança
Por ponto
Embasamento
Por ponto
Qualidade do resumo
Por ponto
Utilidade da sumarização
Por ponto
Verbosidade do resumo
Por ponto
Qualidade das respostas a perguntas
Por ponto
Relevância de respostas a perguntas
Por ponto
Utilidade da resposta a perguntas
Por ponto
Correção de respostas a perguntas
Por ponto
Qualidade do resumo em pares
Por par
Qualidade das respostas a perguntas por par
Por par
Os preços são indicados em dólares americanos (USD).
Se você não paga em dólar americano, valem os preços na sua moeda local listados
na página SKUs do Cloud Platform.
Ray na Vertex AI
Treinamento
Confira nas tabelas abaixo o preço por hora aproximado de várias configurações
de treinamento. É possível escolher configurações personalizadas de tipos de máquinas selecionados. Para calcular os preços,
some os custos das máquinas virtuais usadas por você.
Se você usar tipos de máquina do Compute Engine e
anexar aceleradores, o custo destes será separado. Para calcular esse custo,
multiplique os preços da tabela abaixo pelo número de
aceleradores de cada tipo que você usa.
Tipos de máquina
Se você não paga em dólar americano, são aplicados os preços na sua moeda local listados
na página
SKUs do Cloud Platform.
Aceleradores
Se você não paga em dólar americano, são aplicados os preços na sua moeda local listados
na página
SKUs do Cloud Platform.
* O preço para treinar usando um pod do Cloud TPU é baseado no
número de núcleos do pod. O número de núcleos de um pod é sempre um múltiplo de
32. Para determinar o preço de treinar em um pod com mais de 32 núcleos,
pegue o preço de um pod de 32 núcleos e multiplique pelo número de núcleos,
depois divida por 32. Por exemplo, o preço de um pod de 128 núcleos é
(32-core Pod price) * (128/32). Para mais informações sobre quais pods do
Cloud TPU estão disponíveis para regiões específicas, consulte Arquitetura do sistema
na documentação do Cloud TPU.
Discos
Se você não paga em dólar americano, são aplicados os preços na sua moeda local listados
na página
SKUs do Cloud Platform.
Seus dados e arquivos de programas precisam ser armazenados nos
buckets do Google Cloud Storage durante o ciclo de vida da Vertex AI.
Saiba mais sobre o uso do Cloud Storage.
Você recebe cobranças pelo treinamento dos modelos a contar do momento em que os recursos são
provisionados para um job até a finalização dele.
Previsão e explicação
A tabela a seguir apresenta os preços da previsão em lote, da previsão on-line
e da explicação on-line por hora de uso do nó. Uma hora de uso do nó representa o tempo que a
máquina virtual leva executando um job de previsão ou aguardando em estado ativo (um
endpoint com um ou mais modelos implantados) para lidar com solicitações de explicação
ou previsão.
Escolha uma região para acessar a tabela de preços dela:
Cada tipo de máquina
é cobrado como os seguintes SKUs na sua fatura do Google Cloud:
Custo de vCPU, calculado por vCPU/hora
Custo de RAM, calculado por GB/hora
Custo de GPU: quer seja integrado à máquina ou configurado opcionalmente,
calculado por GPU/hora
Os preços por tipo de máquina são usados para aproximar o
custo horário total para cada nó de previsão de uma versão do modelo que usa aquele
tipo de máquina.
Por exemplo, um tipo de máquina de n1-highcpu-32 inclui 32 vCPUs e 32 GB de RAM.
Portanto, o preço por hora é igual a 32 vCPU hours + 32 GB hours.
A tabela de preços de SKU está disponível por região. Cada tabela mostra os preços de vCPU,
RAM e GPU integrados para tipos de máquinas de previsão, que refletem
com mais precisão os SKUs cobrados.
Para visualizar os preços do SKU por região, escolha a região desejada para exibir a tabela de preços correspondente:
Alguns tipos de máquinas permitem adicionar aceleradores
GPU
opcionais para previsão. As GPUs opcionais geram outras cobranças,
separadas daquelas descritas na tabela anterior. Veja cada tabela de preços,
que descreve os preços de cada tipo de GPU opcional.
Os preços são definidos por GPU. Se você usar várias GPUs por nó de previsão (ou se
fizer escalonamento da versão para utilizar diversos nós), os custos serão escalonados proporcionalmente.
O AI Platform Prediction fornece previsões do seu modelo executando
várias máquinas virtuais ("nós"). Por padrão, a Vertex AI escalona automaticamente
o número de nós em execução a qualquer momento. Para previsão on-line, o
número de nós é escalonado para atender à demanda. Cada nó pode responder a várias solicitações de previsão. Para predição em lote, o número de nós é escalonado para reduzir o tempo total necessário para executar um job. Personalize a maneira como os nós de previsão são escalonados.
Você é cobrado pelo tempo que cada nó é executado para seu modelo, incluindo:
Quando o nó está processando um job de previsão em lote.
Quando o nó está processando uma solicitação de previsão on-line.
Quando o nó está em um estado pronto para cumprir as previsões on-line.
O custo de um nó em execução por uma hora é uma hora de uso do nó. A tabela de preços de previsão descreve o
preço de uma hora de uso do nó, que varia entre as regiões e entre a previsão on-line
e a previsão em lote.
As horas de uso do nó podem ser consumidas em incrementos fracionários. Por exemplo, um nó em execução por 30 minutos custa 0,5 hora por uso do nó.
Cálculo de custo dos tipos de máquina do Compute Engine (N1)
O tempo de execução de um nó é cobrado em incrementos de 30 segundos. Isso significa que, a cada 30 segundos, seu projeto é cobrado por 30 segundos de uso de qualquer recurso, como vCPU, RAM ou GPU, que o nó esteja usando no momento.
Mais sobre escalonamento automático de nós de previsão
Previsão on-line
Predição em lote
A prioridade do escalonamento é reduzir a latência de solicitações
individuais. O serviço mantém seu modelo pronto em um estado de inatividade por alguns minutos
após atender a uma solicitação.
A prioridade do escalonamento é reduzir o tempo total decorrido
do job.
O escalonamento afeta suas taxas totais a cada mês: quanto mais numerosas e
frequentes forem suas solicitações, mais nós serão usados.
O escalonamento provavelmente não terá muito efeito sobre o preço do seu job,
ainda que haja alguns gastos indiretos envolvidos na criação de um novo nó.
Escolha deixar o serviço ser escalonado em resposta ao tráfego
(escalonamento automático) ou especifique vários nós para execução
constante para evitar latência (escalonamento manual).
Se você escolher o escalonamento automático, o número de nós será escalonado
automaticamente. Para implantações do tipo de máquina legado da AI Platform Prediction (MLS1),
o número de nós pode reduzir escala vertical para zero
em períodos sem tráfego. As implantações da Vertex AI e
outros tipos de implantações do AI Platform Prediction não podem
reduzir escala vertical para zero nós.
Se escolher o escalonamento manual, você especifica que alguns nós continuem em execução sempre. Você é cobrado por todo o tempo em que eles estão em execução, começando no momento da implantação e continuando até você excluir a versão do modelo.
Influencie o escalonamento com a definição de um número máximo de nós a ser usado
para um job de predição em lote e com a definição do número de nós que continuarão em execução em um modelo
quando ele for implantado.
Jobs de predição em lote são cobrados após a conclusão do job
Os jobs de predição em lote são cobrados após a conclusão do job, e não de forma incremental durante
o job. Os alertas de orçamento do Cloud Billing que você configurou não
são acionados enquanto um job está em execução. Antes de iniciar um job grande, primeiro
execute alguns jobs de comparação de custos com pequenos dados de entrada.
Exemplo de um cálculo de previsão
Uma empresa imobiliária em uma região das Américas realiza uma previsão semanal de valores de habitação nas áreas em que atende. Em um mês, realiza previsões para
quatro semanas em lotes de 3920, 4277, 3849 e 3961. Os jobs são limitados a um nó, e cada instância leva uma média de 0.72
segundos de processamento.
Primeiro, calcule o período de tempo que cada job foi executado:
Este exemplo considera que os jobs foram executados em um único nó e demoraram um período consistente de tempo por instância de entrada. No uso real, certifique-se de contabilizar vários nós e usar o tempo real que cada nó gasta em execução para os seus cálculos.
Cobranças pelo Vertex Explainable AI
Explicações baseadas em atributos
As explicações baseadas em recursos
não têm custo extra sobre os preços de previsão. Contudo, as explicações levam mais tempo
para serem processadas do que as previsões normais. Por isso, o uso pesado do Vertex Explainable AI com o escalonamento automático resulta em mais nós sendo iniciados, o que aumentaria as
cobranças de previsão.
Ao fazer upload de um modelo ou atualizar o conjunto de dados de um modelo, você será cobrado:
por hora de uso do nó para o job de predição em lote usado para gerar as
representações espaciais latentes de exemplos. Isso é cobrado à mesma taxa da previsão.
um custo para construir ou atualizar índices. Esse custo é igual aos
custos de indexação da Pesquisa Vetorial,
que é o número de exemplos * número de dimensões * 4 bytes por ponto flutuante * US$ 3,00 por GB.
Por exemplo, se você tiver 1 milhão de exemplos e 1.000 dimensões de espaço latente,
o custo será de US$ 12 (1.000.000 * 1.000 * 4 * 3,00/1.000.000.000).
Ao implantar em um endpoint, você será cobrado por hora de uso do nó para cada nó
em seu endpoint. Toda a computação associada ao endpoint é cobrada à mesma taxa da previsão. No entanto,
como as explicações baseadas em exemplos exigem recursos de computação adicionais para
servir o índice da Pesquisa vetorial, isso resulta na inicialização de mais nós,
o que aumenta as cobranças de previsão.
Pesquisa de arquitetura neural do Vertex AI
Veja nas tabelas a seguir os preços em cada região em que a pesquisa de arquitetura neural está disponível.
Preços
As tabelas a seguir mostram o preço por hora de várias configurações.
É possível escolher um nível de escalonamento predefinido ou uma configuração personalizada
de tipos de máquinas selecionados. Se você escolher uma configuração personalizada, some os custos das máquinas virtuais que você usa.
Tipos de máquinas legadas compatíveis com aceleradores incluem o custo dos aceleradores no preço. Se você usar tipos de máquina do Compute Engine e
anexar aceleradores, o custo destes será separado. Para calcular esse custo,
multiplique os preços da tabela a seguir de aceleradores pelo número de cada tipo
de acelerador usado.
Se você não paga em dólar americano, são aplicados os preços na sua moeda local listados
na página
SKUs do Cloud Platform.
Observações:
Todo o uso está sujeito à política de cotas da pesquisa de arquitetura neural.
É necessário armazenar seus dados e arquivos de programas em
buckets do Cloud Storage durante o ciclo de vida da pesquisa de arquitetura neural.
Saiba mais sobre o uso do Cloud Storage.
O preço do disco só é cobrado quando você configura o tamanho
do disco de cada VM para mais de 100 GB. Não há cobrança para os primeiros
100 GB (o tamanho padrão do disco) de disco para cada VM. Por exemplo, se você
configurar cada VM para ter 105 GB de disco, será cobrado por 5 GB de
disco para cada VM.
Uso obrigatório do Cloud Storage
Além dos custos descritos neste documento, você precisa armazenar dados
e arquivos de programas nos buckets do Cloud Storage durante o ciclo de vida da pesquisa de arquitetura neural. Esse armazenamento está sujeito à
política de preços do Cloud Storage.
O uso obrigatório do Cloud Storage inclui:
preparação do pacote do aplicativo de treinamento;
armazenamento dos dados de entrada do treinamento.
Armazenando a saída dos seus jobs.
A pesquisa de arquitetura neural não exige armazenamento a longo prazo desses itens.
Remova os arquivos assim que a operação for concluída.
Operações gratuitas para gerenciar seus recursos
As operações de gerenciamento de recursos fornecidas pela pesquisa de arquitetura neural estão
disponíveis sem custo financeiro. A política de cotas da pesquisa de arquitetura neural limita
algumas dessas operações.
Recurso
Operações gratuitas
jobs
get, list, cancel
operações
get, list, cancel, delete
Vertex AI Pipelines
O Vertex AI Pipelines tem uma taxa de execução de US$ 0,03 por
execução de pipeline. Não há cobranças pela taxa de execução durante a versão de pré-lançamento.
Você também paga pelos recursos do Google Cloud usados com o
Vertex AI Pipelines, como os componentes do Compute Engine consumidos
por pipelines. O preço deles é igual ao do
Vertex AI Training. Por fim, você é responsável pelo
custo de todos os serviços (como o Dataflow) chamados pelo seu pipeline.
Vertex AI Feature Store
O Vertex AI Feature Store está em disponibilidade geral (GA) desde novembro de 2023. Para
obter informações sobre a versão anterior do produto, acesse Vertex AI Feature Store (legado).
Novo Vertex AI Feature Store
O novo Vertex AI Feature Store oferece suporte à funcionalidade em dois tipos de operações:
Operações off-line são operações para transferir, armazenar,
recuperar e transformar dados no repositório off-line (BigQuery)
Operações on-line são operações para transferir dados para a(s)
loja(s) on-line e operações sobre dados enquanto eles estão na(s) loja(s) on-line.
Preços das operações off-line
Como o BigQuery é usado para operações off-line, consulte os preços do BigQuery para funcionalidades como ingestão no repositório off-line, consulta ao repositório off-line e armazenamento off-line.
Preços das operações on-line
Para operações on-line, o Vertex AI Feature Store cobra por quaisquer recursos em GA para
transferir dados para a loja on-line, fornecer ou armazenar dados. Uma hora de uso do nó
representa o tempo que uma máquina virtual gasta para concluir uma operação,
cobrado por minuto.
A veiculação on-line otimizada e a veiculação on-line do Bigtable usam arquiteturas diferentes, portanto, seus nós não são comparáveis.
Se você não paga em dólar americano, são aplicados os preços na sua moeda local listados na página
SKUs do Cloud Platform.
Estimativas de carga de trabalho das operações on-line
Considere as diretrizes a seguir ao estimar suas cargas de trabalho. O número de
nós necessários para determinada carga de trabalho pode diferir em cada abordagem de serviço.
Processamento de dados:
Ingestão: um nó pode ingerir aproximadamente um mínimo de 100 MB de dados por hora em uma loja on-line do Bigtable ou uma loja on-line otimizada se nenhuma função analítica for usada.
Veiculação on-line do Bigtable: cada nó pode suportar aproximadamente 15.000 QPS e até 5 TB de armazenamento.
Disponibilização on-line otimizada: a performance é baseada no tipo de máquina e nas réplicas, que são configuradas automaticamente para minimizar os custos sujeitos à carga de trabalho. Cada nó pode ter
no mínimo duas e no máximo seis réplicas para alta disponibilidade e escalonamento automático. Você recebe cobranças pelo número de réplicas. Para mais detalhes, consulte os exemplos de cenários mensais.
Para cargas de trabalho que não são relacionadas a embeddings, cada nó pode suportar aproximadamente 500 QPS e até 200 GB de armazenamento.
Para cargas de trabalho relacionadas a incorporações, cada nó pode suportar aproximadamente 500 QPS e até 4 GB de armazenamento de dados de 512 dimensões.
É possível conferir o número de nós (com réplicas) no Metrics Explorer:
Metric Explorer para descobrir o número de nós usados.
Exemplo de cenários mensais (considerando us-central1)
Carga de trabalho de fluxo de dados: veiculação on-line do Bigtable com 2,5 TB de dados
(1 GB atualizado diariamente) e 1.200 QPS
Operações
Uso mensal
Custo mensal
Nó de processamento de dados
(1 GB/dia) * (30 dias/mês) * (1.000 MB/GB) * (1 hora de uso do nó / 100 MB) = 300 horas de uso do nó
300 horas de uso do nó * (US$ 0,08 por hora de uso do nó) = US$ 24
Nó de veiculação on-line otimizado
N/A
N/A
Nó de veiculação on-line do Bigtable
(1 nó) * (24 horas/dia) * (30 dias/mês) = 720 horas de uso do nó
720 horas de uso do nó * (US$ 0,94 por hora de uso do nó) = US$ 677
Armazenamento de veiculação on-line do Bigtable
(2,5 TB por mês) * (1.000 GB/TB) = 2.500 GB por mês
2.500 GB por mês * (US$ 0,25 por GB por mês) = US$ 625
Total
US$ 1,326
Carga de trabalho de alto QPS: veiculação on-line otimizada com 10 GB de dados não incorporados
(5 GB atualizados diariamente) e 2.000 QPS
Operações
Uso mensal
Custo mensal
Nó de processamento de dados
(5 GB/dia) * (30 dias/mês) * (1.000 MB/GB) * (1 hora de uso do nó / 100 MB) = 1.500 horas de uso do nó
1.500 horas de uso do nó * (US$ 0,08 por hora de uso do nó) = US$120
Nó de veiculação on-line otimizado
Arredondar para cima(10 GB * (1 nó / 200 GB)) = 1 * max(2 réplicas padrão, 2000 QPS * (1 réplica / 500 QPS)) = 4 nós totais * (24 horas/dia) * (30 dias/mês) =2880 horas de uso do nó
2.880 horas de uso do nó * (US$ 0,30 por hora de uso do nó) = US$ 864
Nó de veiculação on-line do Bigtable
N/A
N/A
Armazenamento de veiculação on-line do Bigtable
N/A
N/A
Total
R$984
Carga de trabalho de veiculação de incorporações: veiculação on-line otimizada com 20 GB de dados de incorporações (2 GB atualizados diariamente) e 800 QPS
Operações
Uso mensal
Custo mensal
Nó de processamento de dados
(2 GB/dia) * (30 dias/mês) * (1.000 MB/GB) * (1 hora de uso do nó / 100 MB) = 600 horas de uso do nó
600 horas de uso do nó * (US$ 0,08 por hora de uso do nó) = US$48
Nó de veiculação on-line otimizado
Arredondar para cima(20 GB* (1 nó / 4 GB) = 5 * máximo(2 réplicas padrão, 800 QPS * (1 réplica / 500 QPS)) = 10 nós no total * (24 horas/dia) * (30 dias/mês) = 7.200 horas de uso do nó
7.200 horas de uso do nó * (US$ 0,30 por hora de uso do nó) = US$ 2.160
Nó de veiculação on-line do Bigtable
N/A
N/A
Armazenamento de veiculação on-line do Bigtable
N/A
N/A
Total
US$2.208
Vertex AI Feature Store (legado)
Os preços do Vertex AI Feature Store (legado) dependem da quantidade de dados de
recursos armazenados on-line e off-line, bem como da disponibilidade para
veiculação on-line. Uma hora de uso do nó
representa o tempo que uma máquina virtual gasta exibindo dados do recurso ou aguardando em
estado de prontidão para lidar com as solicitações de dados do recurso.
Se você não paga em dólar americano, são aplicados os preços na sua moeda local listados na página
SKUs do Cloud Platform.
Quando você ativa o monitoramento do valor do recurso, o faturamento inclui os encargos aplicáveis acima, além dos encargos aplicáveis a seguir:
US$ 3,50 por GB para todos os dados analisados. Com a análise de snapshots ativada, os snapshots obtidos para dados no Vertex AI Feature Store (legado) são incluídos. Com a análise de recursos de importação habilitada, lotes de dados ingeridos são incluídos.
As cobranças adicionais para outras operações do Vertex AI Feature Store (legado) usadas com o monitoramento do valor do recurso incluem o seguinte:
O recurso de análise de snapshot captura periodicamente um snapshot dos valores de recurso com base na sua configuração de intervalo de monitoramento.
A cobrança por uma exportação de snapshot é a mesma de uma operação normal de exportação em lote.
Exemplo de análise de snapshot
Um cientista de dados permite o monitoramento do valor do recurso para seu Vertex AI Feature Store (legado) e ativa o monitoramento para uma análise diária de snapshots.
Um pipeline é executado diariamente para monitoramento de tipos da entidade. O pipeline verifica 2 GB de dados no Vertex AI Feature Store (legado) e exporta um snapshot contendo 0,1 GB de dados.
A cobrança total de um dia de análise é:
(0.1 GB * $3.50) + (2 GB * $0.005) = $0.36
Exemplo de análise de ingestão
Um cientista de dados permite o monitoramento do valor do recurso para seu Vertex AI Feature Store (legado) e ativa o monitoramento para operações de ingestão.
Uma operação de ingestão importa 1 GB de dados para o Vertex AI Feature Store (legado).
A cobrança total referente ao monitoramento do valor do recurso é:
(1 GB * $3.50) = $3.50
Vertex ML Metadata
O armazenamento de metadados é medido em gigabytes binários (GiB), sendo que 1 GiB é
igual a 1.073.741.824 bytes. Essa unidade de medida também é conhecida como gibibyte.
O Vertex ML Metadata cobra US$ 10 por gibibyte (GiB) por mês pelo
armazenamento de metadados. Os preços são rateados por megabyte (MB). Por exemplo, se
você armazena 10 MB de metadados, será cobrado US$ 0,10 por mês por esses 10 MB
de metadados.
Os preços são os mesmos em todas as regiões com suporte ao
Vertex ML Metadata.
Vertex AI TensorBoard
Para usar o Vertex AI TensorBoard, solicite que o administrador IAM do projeto atribua a você a função
"Usuário do App da Web do Vertex AI TensorBoard". A função de administrador do Vertex AI
também tem acesso.
A partir de agosto de 2023, o preço do Vertex AI TensorBoard mudou
de uma licença mensal por usuário de US$ 300/mês para US$ 10 GiB/mês para armazenamento de dados
de logs e métricas. Isso significa que não há mais taxas de assinatura. Você pagará apenas
pelo armazenamento que usar. Consulte o tutorial
Vertex AI TensorBoard: excluir experimentos desatualizados do TensorBoard
para saber como gerenciar o armazenamento.
Vertex AI Vizier
O Vertex AI Vizier é um serviço de otimização de caixa preta dentro do Vertex AI.
O modelo de preços do Vertex AI Vizier consiste no seguinte:
Os primeiros 100 testes do Vertex AI Vizier por mês estão disponíveis sem custos financeiros. Os testes com RANDOM_SEARCH e GRID_SEARCH não contam para esse total.
Após os 100 testes do Vertex AI Vizier, os testes subsequentes durante o mesmo mês serão cobrados a US$ 1,00 por teste (testes que usam RANDOM_SEARCH ou GRID_SEARCH não geram custo financeiro).
Pesquisa Vetorial
O preço do serviço de Pesquisa Vetorial de vizinho mais próximo aproximado consiste em:
Preço de hora de uso do nó para cada VM usada na hospedagem de um índice implantado.
Um custo para criar novos índices, atualizar índices e usar atualizações de índices de streaming.
Os dados processados durante a criação e atualização dos índices são medidos em
gigabytes (GiB) binários, em que 1 GiB é 1.073.741.824 bytes. Essa unidade de medida
também é conhecida como gibibyte.
A Pesquisa Vetorial cobra US$ 3,00 por gibibyte (GiB) de dados
processados em todas as regiões. A Pesquisa Vetorial cobra US $0,45/GiB ingerido
para inserções de atualização de streaming.
As tabelas a seguir resumem o preço de um índice veiculado em cada região onde
a Pesquisa Vetorial está disponível. O preço corresponde ao tipo de máquina,
por região, e é cobrado por hora de uso do nó.
O preço da Pesquisa Vetorial é determinado pelo tamanho dos seus dados,
pela quantidade de consultas por segundo (QPS) que você quer executar e pelo número de nós que você usa.
Para obter o custo estimado de veiculação, você precisa calcular o tamanho total dos dados.
O tamanho dos dados é o número de embeddings/vetores * o número de dimensões
que você tem * 4 bytes por dimensão. Depois de ter o tamanho dos seus dados, você pode calcular
o custo de veiculação e o custo de criação. O custo de veiculação mais o custo de criação
é igual ao custo total mensal.
Custo de veiculação: nº réplicas/fragmento * nº fragmentos (~tamanho dos dados/tamanho do fragmento) * custo por hora * 730 horas
Custo de criação: tamanho dos dados(em GiB) * US$ 3/GiB * nº de atualizações/mês
Atualização de streaming:a pesquisa de vetores usa métricas baseadas em heurística para determinar quando acionar a compactação. Se os dados não compactados mais antigos tiverem cinco dias, a compactação será sempre acionada. Você será cobrado pelo custo de recriar o índice pela mesma taxa de uma atualização em lote, além dos custos da atualização de streaming.
Número de embeddings/vetores
Número de dimensões
Consultas por segundo (QPS)
Tipo de máquina
Nós
Custo estimado de veiculação mensal
2 milhões
128
100
e2-standard-2
1
US$ 68
20 milhões
256
1.000
e2-standard-16
1
US$ 547
20 milhões
256
3.000
e2-standard-16
3
US$ 1.642
100 milhões
256
500
e2-highmem-16
2
US$ 1.477
1 bilhão
100
500
e2-highmem-16
8
US$ 5.910
Todos os exemplos são baseados em tipos de máquinas no us-central1.
O custo gerado vai variar de acordo com a taxa de recall e os requisitos de latência. O custo estimado de veiculação mensal
está diretamente relacionado ao número de nós usados no console.
Para saber mais sobre os parâmetros de configuração que afetam o custo, consulte
Parâmetros de configuração que afetam o recall e a latência.
Se você tiver um alto número de consultas por segundo (QPS), agrupar essas consultas em lote pode
reduzir os custos totais em até 30%-40%.
Vertex AI Model Registry
O Vertex AI Model Registry é um repositório central que rastreia e lista seus
modelos e versões de modelos. Você pode importar modelos para o Vertex AI e eles aparecerão
no Vertex AI Model Registry. Não há nenhum custo associado a ter seus modelos no
Model Registry. Os custos só são gerados quando você implanta o modelo em um endpoint ou
executa uma previsão em lote no modelo. Esse custo é determinado pelo tipo de modelo que você está implantando.
Ao usar o Monitoramento de modelos da Vertex AI, você recebe cobranças da seguinte forma:
US$ 3,50 por GB para todos os dados analisados, incluindo
os dados de treinamento fornecidos e os dados de previsão registrados em uma tabela do BigQuery.
Cobranças por outros produtos do Google Cloud que você usa com o Monitoramento de Modelos, como o armazenamento do
BigQuery ou o Batch Explain, quando o monitoramento de atribuição está ativado.
O Monitoramento de Modelos da Vertex AI tem suporte nas seguintes regiões: us-central1,
europe-west4, asia-east1 e asia-southeast1. Os preços são os mesmos em todas
as regiões.
Os tamanhos dos dados são medidos depois de serem convertidos para o formato TfRecord.
Conjuntos de dados de treinamento geram uma cobrança única quando você configura um
job de Monitoramento de Modelos da Vertex AI.
Os conjuntos de dados de previsão são registros coletados do serviço
de previsão on-line. Conforme as solicitações de previsão chegam durante janelas de tempo diferentes,
os dados de cada janela são coletados e a soma das
informações analisadas em cada janela de previsão é usada para calcular a cobrança.
Exemplo:
um cientista de dados executa o monitoramento de modelo no tráfego de previsão que pertence
ao modelo.
O modelo é treinado com um conjunto de dados do BigQuery. O tamanho dos dados após a conversão para
TfRecord é de 1,5 GB.
Os dados de previsão registrados entre 13h e 14h são de 0,1 GB,
entre 15h e 16h é de 0,2 GB.
O preço total para configurar o job de monitoramento de modelo é:
Além dos custos mencionados anteriormente,
você também paga por eventuais recursos do Google Cloud que usar.
Exemplo:
Serviços de análise dos dados: os custos do BigQuery são gerados
ao emitir consultas SQL em um notebook (consulte
os Preços do BigQuery).
Chaves de criptografia gerenciadas pelo cliente: você
está sujeito a cobranças pelo uso. Sempre que
os notebooks gerenciados ou
a instância de notebooks gerenciados pelo usuário
usam uma chave do Cloud Key Management Service, a operação será cobrada de acordo com a taxa
das operações
de chave do Cloud KMS (consulte Preços do Cloud Key Management Service).
Deep Learning Containers, VM de aprendizado profundo e pipelines da AI Platform
No caso dos Deep Learning Containers, Deep Learning VM Images
e AI Platform Pipelines,
o preço é calculado com base nos recursos de computação e de armazenamento que você usa.
Esses recursos são cobrados usando a mesma taxa
que você paga atualmente pelo Compute Engine e pelo
Cloud Storage.
Além dos custos de computação e armazenamento,
você também paga pelos recursos do Google Cloud que usar.
Exemplo:
Serviços de análise dos dados: os custos do BigQuery são gerados
ao emitir consultas SQL em um notebook (consulte
os Preços do BigQuery).
Chaves de criptografia gerenciadas pelo cliente: você
está sujeito a cobranças pelo uso. Sempre que
os notebooks gerenciados ou
a instância de notebooks gerenciados pelo usuário
usam uma chave do Cloud Key Management Service, a operação será cobrada de acordo com a taxa
das operações
de chave do Cloud KMS (consulte Preços do Cloud Key Management Service).
Rotulagem de dados
Com a Vertex AI, é possível solicitar a rotulagem humana de uma coleção
de dados que você planeja usar para treinar um modelo de machine learning personalizado.
Os preços do serviço são calculados com base no tipo de tarefa de rotulagem.
Para tarefas de rotulagem regular, os preços são determinados pelo número de
unidades de anotação.
Em uma tarefa de classificação de imagem, as unidades são determinadas com base no número
de imagens e na quantidade de rotuladores humanos. Por exemplo, uma imagem com
três rotuladores humanos será contabilizada como de 1 * 3 = 3 unidades. O preço da classificação
de rótulo único e de vários rótulos é o mesmo.
Em uma tarefa de caixa delimitadora de imagem, as unidades são determinadas pelo número de
caixas delimitadoras identificadas nas imagens e pelo número de rotuladores humanos.
Por exemplo, uma imagem com duas caixas delimitadoras e três rotuladores humanos
será contabilizada como 2 * 3 = 6 unidades. Imagens sem caixas delimitadoras não
geram cobrança.
Em uma segmentação de imagens/caixa rotacionada/linha poligonal/tarefa poligonal, as unidades são
determinadas da mesma forma que uma tarefa de caixa delimitadora de imagem.
Em uma tarefa de classificação de vídeo, as unidades são determinadas pela duração do vídeo
(cinco segundos equivalem a uma unidade de preço) e pelo número de rotuladores humanos. Por
exemplo, um vídeo de 25 segundos com três rotuladores humanos é contabilizado como 25 / 5 * 3 =
15 unidades. O preço da classificação de rótulo único e de vários rótulos
é o mesmo.
Em uma tarefa de detecção de objetos em vídeo, a unidade é determinada pelo número de
objetos identificados no vídeo e pelo número de rotuladores humanos. Por
exemplo, um vídeo com dois objetos e três rotuladores humanos é contabilizado como
2 * 3 = 6 unidades. Vídeos sem objetos não geram cobrança.
Em uma tarefa de reconhecimento de ação em vídeo, as unidades são determinadas da mesma maneira que em uma tarefa de
rastreamento de objetos de vídeo.
Em uma tarefa de classificação de texto, as unidades são determinadas pelo tamanho
do texto (cada 50 palavras equivalem a uma unidade de preço) e pelo número de rotuladores humanos. Por
exemplo, um trecho de texto com 100 palavras e três rotuladores humanos é contabilizado como
100 / 50 * 3 = 6 unidades. O preço da classificação de rótulo único e vários rótulos é o mesmo.
Em uma tarefa de sentimento de texto, as unidades são determinadas da mesma maneira que uma tarefa de
classificação de texto.
Em uma tarefa de extração de entidade de texto, as unidades são determinadas por comprimento do texto
(cada 50 palavras equivale a uma unidade de preço), o número de entidades identificadas e
o número de rotuladores humanos. Por exemplo, um trecho de texto com 100 palavras,
duas entidades identificadas e três rotuladores humanos é contabilizado como
100 / 50 * 2 * 3 = 12 unidades. Textos sem entidades não geram cobrança.
Nas tarefas de classificação de imagem/vídeo/texto, e de sentimento de texto é possível que os rotuladores humanos
percam o controle das classes se o tamanho do conjunto de rótulos for muito grande. Como resultado,
enviamos no máximo 20 classes para os rotuladores humanos de cada vez. Por exemplo, se
o tamanho do conjunto de rótulos de uma tarefa de rotulagem for 40, cada item de dados será enviado para
revisão humana 40 / 20 = 2 vezes e cobraremos duas vezes do preço
(calculado acima) conforme adequado.
Para uma tarefa de rotulagem que ativa o recurso de rotulador personalizado, cada item de dados é
contabilizado como uma unidade de rotulador personalizado.
Em uma tarefa de rotulagem de aprendizagem ativa para itens de dados com anotações
geradas por modelos (sem a ajuda de um rotulador humano), cada item de dados é
contabilizado como uma unidade de aprendizagem ativa.
Para uma tarefa de rotulagem de aprendizagem ativa para itens de dados com anotações
geradas por rotuladores humanos, cada item de dados é contabilizado como uma tarefa de rotulagem regular
conforme descrito acima.
Na tabela abaixo, você confere o preço por 1.000 unidades por rotulador baseado na unidade listada para cada objetivo. Os preços do nível 1 se aplicam às primeiras 50 mil unidades por mês em cada projeto do Google Cloud. Os do nível 2 se aplicam às 950 mil unidades seguintes por mês no projeto, com um máximo de um milhão de unidades.
Fale conosco para saber os preços acima de um milhão
de unidades por mês.
Tipo de dados
Objetivo
Unidade
Nível 1
Nível 2
Imagem
Classificação
Imagem
US$ 35
US$ 25
Caixa delimitadora
Caixa delimitadora
US$ 63
US$ 49
Segmentação
Segmento
US$ 870
US$ 850
Caixa rotacionada
Caixa delimitadora
US$ 86
US$ 60
Polígono/linha poligonal
Polígono/linha poligonal
US$ 257
US$ 180
Vídeo
Classificação
Vídeo de 5 segundos
US$ 86
US$ 60
Rastreamento de objetos
Caixa delimitadora
US$ 86
US$ 60
Reconhecimento de ação
Evento em vídeo de 30 segundos
US$ 214
US$ 150
Texto
Classificação
50 palavras
US$ 129
US$ 90
Sentimento
50 palavras
US$ 200
US$ 140
Extração de entidade
Entidade
US$ 86
US$ 60
Aprendizagem ativa
Tudo
Item de dados
US$ 80
US$ 56
Rotulador personalizado
Tudo
Item de dados
US$ 80
US$ 56
Uso obrigatório do Cloud Storage
Além dos custos descritos neste documento, você precisa armazenar
dados e arquivos de programas nos buckets do Cloud Storage durante o
ciclo de vida da Vertex AI. Esse armazenamento está sujeito à
política de preços do Cloud Storage.
O uso obrigatório do Cloud Storage inclui:
Preparação do pacote de aplicativo de treinamento para modelos treinados personalizados.
Armazenamento dos dados de entrada do treinamento.
Armazenamento do resultado dos jobs de treinamento.
A Vertex AI não requer armazenamento a longo prazo desses itens.
Remova os arquivos assim que a operação for concluída.
Operações gratuitas para gerenciar seus recursos
As operações de gerenciamento de recursos fornecidas pela AI Platform estão disponíveis sem custo financeiro. A política de cotas da AI Platform limita algumas dessas operações.
Recurso
Operações gratuitas
modelos
create, get, list, delete
versões
create, get, list, delete, setDefault
jobs
get, list, cancel
operações
get, list, cancel, delete
Custos do Google Cloud
Se você armazenar imagens para serem analisadas no Cloud Storage ou usar outros
recursos do Google Cloud com a Vertex AI, então
também receberá cobrança pelo uso desses serviços.
Com o sistema de pagamento por uso do Google Cloud, você paga apenas pelos serviços que
usa. Entre em contato com nossa equipe de vendas e receba uma cotação personalizada para sua organização.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],[],[],[]]