Preços da Vertex AI
Os preços são indicados em dólares americanos (USD). Se você não paga em dólar americano, valem os preços na sua moeda local listados na página SKUs do Cloud Platform.
Preços da Vertex AI em comparação com os preços do AI Platform legado
Os custos da Vertex AI continuam iguais aos dos produtos que ela substitui. Por exemplo, o custo do treinamento de um modelo de classificação de imagem do AutoML é o mesmo, seja para treinamento com a IA Vertex ou com o AutoML Vision.
Se você estiver usando produtos legados do AI Platform, seu faturamento poderá ser expresso em termos de "unidades de ML"
Preços dos modelos do AutoML
No caso dos modelos do AutoML na Vertex AI, você paga por três atividades principais:
- Como treinar o modelo
- Como implantar o modelo em um endpoint
- Como usar o modelo para fazer previsões
A IA Vertex usa configurações de máquina predefinidas para modelos do Vertex AutoML, e a taxa por hora dessas atividades reflete o uso de recursos.
O tempo necessário para treinar o modelo depende do tamanho e da complexidade dos dados de treinamento. É preciso implantar os modelos para que possam fornecer previsões ou explicações on-line.
Você paga por cada modelo implantado em um endpoint, mesmo que não seja feita nenhuma previsão. É preciso cancelar a implantação do modelo para suspender demais cobranças. Modelos que não foram implantados ou que falharam na implantação não são cobrados.
Você paga somente pelas horas de computação usadas. Se o treinamento falhar por qualquer motivo que não seja um cancelamento iniciado pelo usuário, você não será cobrado pelo tempo. O tempo de treinamento será cobrado se você cancelar a operação.
Selecione um tipo de modelo abaixo para ver informações de preço.
Dados de imagem
Operação | Preço por hora do nó (classificação) | Preço por hora do nó (detecção de objetos) |
---|---|---|
Treinamento | US$ 3,465 | US$ 3,465 |
Treinamento (modelo no dispositivo perimetral) | US$ 18,0 | US$ 18,0 |
Implantação e previsão on-line | US$ 1,375 | US$ 2,002 |
Previsão em lote | US$ 2,222 | US$ 2,222 |
Dados de vídeo
Operação | Preço por hora de uso do nó (classificação, rastreamento de objetos) | Preço por hora de uso do nó (reconhecimento de ação) |
---|---|---|
Treinamento | US$ 3,234 | US$ 3,300 |
Treinamento (modelo no dispositivo perimetral) | US$ 10,78 | US$ 11,00 |
Previsões | US$ 0,462 | US$ 0,550 |
Dados em tabela
Operação | Preço por hora de uso do nó para classificação/regressão | Preço para estimativas |
---|---|---|
Treinamento | US$ 21,252 | Consulte a Previsão da Vertex AI. |
Previsão | Mesmo preço das previsões para modelos treinados personalizados | Consulte a Previsão da Vertex AI. |
Dados de texto
Operação | Preço |
---|---|
Upload de dados legado (apenas PDF) |
Primeiras 1.000 páginas gratuitas por mês US$ 0,60 por 1.000 páginas US$ 0,60 por 1.000 páginas acima de 5.000.000 |
Treinamento | US$ 3,30 por hora |
Implantação | US$ 0,21 por hora |
Previsão |
US$ 5 a cada grupo de 1.000 registros de texto US$ 25,00 por 1.000 páginas de documentos, como arquivos PDF (somente legado) |
Os preços das solicitações de previsão de texto do Vertex AutoML são calculados com base no número de registros de texto enviados para análise. Um registro de texto é um texto simples de até 1.000 caracteres Unicode (incluindo espaço em branco e qualquer marcação como tags HTML ou XML).
Se o texto fornecido em uma solicitação de previsão contiver mais de 1.000 caracteres, será contabilizado um registro de texto para cada 1.000 caracteres. Por exemplo, se você enviar três solicitações com 800, 1.500 e 600 caracteres, respectivamente, serão cobrados quatro registros de texto: um para a primeira solicitação (800), dois para a segunda solicitação (1.500) e outra para a terceira (600).
Cobranças de previsão para Vertex Explainable AI
A computação associada à Vertex Explainable AI é cobrada da mesma forma que a previsão. Contudo, as explicações levam mais tempo para serem processadas do que as previsões normais. Assim, o uso pesado do Vertex Explainable AI com o escalonamento automático resulta em mais nós sendo iniciados, o que aumentaria as cobranças de previsão.
Previsão da Vertex AI
AutoML
Etapas | Preços |
---|---|
Previsão | US$ 0,2 por mil pontos de dados* (de 0 a 1 milhão de pontos) US$ 0,1 por 1 mil pontos de dados* (de 1 milhão a 50 milhões de pontos) US$ 0,02 por 1 mil pontos de dados* (>50 milhões de pontos) |
Treinamento | US$ 21,25/hora em todas as regiões |
Explicabilidade usando valores de Shapley. Consulte a página de preços do Vertex AI Prediction e Explicação. |
* Um ponto de dados de previsão é um ponto no tempo no horizonte da previsão. Por exemplo, com granularidade diária, um horizonte de sete dias é 7 pontos para cada série temporal.
- É possível incluir até cinco quantis de previsão sem custo adicional.
- O número de pontos de dados consumidos por nível é atualizado mensalmente.
ARIMA+
Etapas | Preços |
---|---|
Previsão | US$5,00 por TB |
Treinamento | US$ 250,00 por TB x número de modelos candidatos x número de janelas de backtesting |
A explicabilidade com a decomposição de série temporal não adiciona nenhum custo adicional. A explicabilidade usando valores de Shapley não é aceita. |
Consulte a página de preços do BigQuery ML para mais detalhes. Cada job de treinamento e previsão gera o custo de uma execução de pipeline gerenciada, conforme descrito nos preços da Vertex AI.
* Uma janela de teste é criada para cada período do conjunto de teste. O AUTO_ARIMA_MAX_ORDER usado determina o número de modelos candidatos. Ele varia de 6 a 42 para modelos com várias séries temporais.
Modelos treinados e personalizados
Treinamento
Veja nas tabelas abaixo o preço por hora aproximado de várias configurações de treinamento. É possível escolher uma configuração personalizada de tipos de máquinas selecionados. Para calcular os preços, calcule os custos das máquinas virtuais que você usa.
Se você usa tipos de máquina do Compute Engine e anexa aceleradores, o custo deles será separado. Para calcular esse custo, multiplique os preços da tabela abaixo por quantas horas de máquina de cada tipo de acelerador você usa.
Tipos de máquina
Américas
Europa
Ásia-Pacífico
Aceleradores
Américas
Europa
Ásia-Pacífico
* O preço do treinamento usando um pod do Cloud TPU é baseado no
número de núcleos no pod. O número de núcleos em um pod é sempre um múltiplo de 32. Para determinar o preço do treinamento em um pod com mais de 32 núcleos, pegue o preço de um pod de 32 núcleos e multiplique-o pelo número de núcleos, dividido por 32. Por exemplo, para um pod de 128 núcleos, o preço é (32-core Pod price) * (128/32)
. Para ver quais pods de Cloud TPU estão disponíveis para uma região específica, consulte Arquitetura do sistema na documentação do Cloud TPU.
Discos
Américas
Europa
Ásia-Pacífico
- Todo o uso está sujeito à política de cotas da IA Vertex..
- É necessário armazenar seus dados e arquivos de programas nos buckets do Google Cloud Storage durante o ciclo de vida da IA Vertex. Veja mais sobre o uso do Cloud Storage.
Você é cobrado pelo treinamento dos modelos a partir do momento em que os recursos são provisionados para um job até que ele seja concluído.
Níveis de escalonamento para configurações predefinidas (AI Platform Training)
Controle o tipo de cluster de processamento a ser usado ao treinar seu modelo. A maneira mais simples é escolher uma das configurações predefinidas, chamadas níveis de escalonamento. Saiba mais sobre os níveis de escalonamento.
Tipos de máquinas para configurações personalizadas
Se você usa o Vertex AI ou seleciona CUSTOM
como seu nível de escalonamento no AI Platform Training, tem controle sobre o número e o tipo de máquinas virtuais que serão usadas para o mestre, worker e parâmetro do cluster. servidores. Leia mais sobre tipos de máquinas para a Vertex AI e tipos de máquinas para o AI Platform Training.
O custo do treinamento com um cluster de processamento personalizado será a soma de todas as máquinas que você especificar. Haverá cobrança pelo tempo total do job, não pelo tempo de processamento ativo de máquinas individuais.
Calcular custo de treinamento usando "unidades de ML consumidas"
As Unidades de ML consumidas (unidades de machine learning consumidas) mostradas na página Detalhes do job são equivalentes às unidades de treinamento com a duração do job já incluída. Ao usar unidades de ML consumidas nos seus cálculos, use a seguinte fórmula:
(Consumed ML units) * (Machine type cost)
Exemplo:
Um cientista de dados executa um job de treinamento em uma instância da máquina
e2-standard-4
na região us-west1 (Oregon). O campo Unidades de ML consumidas na página Detalhes do job mostra 55,75. O cálculo é o seguinte:55.75 consumed ML units * 0.154114
Por um total de US $8,59 pelo job.
Para encontrar a página Detalhes do job, acesse a Lista de jobs e clique no link do que quiser acessar.
Previsão e explicação
Nesta tabela, mostramos os preços de previsões em lote e on-line e explicações por hora de uso do nó. Uma hora de uso do nó representa o tempo que uma máquina virtual gasta executando seu job de previsão ou aguardando em estado de prontidão para tratar as solicitações de explicação ou de previsão..
Américas
Previsão | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Previsões e explicações |
|
Europa
Previsão | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Previsões e explicações |
|
Ásia-Pacífico
Previsão | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Previsões e explicações |
|
Cada tipo de máquina é cobrado como duas SKUs separadas na fatura do Google Cloud:
- Custo de vCPU, calculado por vCPU/hora
- Custo de RAM, calculado por GB/hora
Os preços dos tipos de máquina na tabela anterior se aproximam do
custo por hora total de cada nó de previsão de uma versão de modelo
que usa esse tipo de máquina. Por exemplo, para um tipo de máquina n1-highcpu-32
que inclua 32 vCPUs e 28,8 GB de RAM, o preço/hora por nó é igual a 32 vCPU/hora + 28,8 GB/hora.
Os preços na tabela anterior são fornecidos para ajudar você a estimar os custos de previsão on-line. A tabela a seguir mostra os preços de vCPU e RAM dos tipos de máquina de previsão, que refletem com mais precisão as SKUs que serão cobradas:
Américas
SKUs do tipo de máquina do Prediction | |||||||
---|---|---|---|---|---|---|---|
vCPU |
|
||||||
RAM |
|
Europa
SKUs do tipo de máquina do Prediction | |||||
---|---|---|---|---|---|
vCPU |
|
||||
RAM |
|
Ásia-Pacífico
SKUs do tipo de máquina do Prediction | |||||||||
---|---|---|---|---|---|---|---|---|---|
vCPU |
|
||||||||
RAM |
|
Opcionalmente, use aceleradores de GPU para previsão. As GPUs geram outras cobranças, separadas daquelas descritas na tabela anterior. A tabela a seguir descreve os preços de cada tipo de GPU:
Américas
Aceleradores: preço por hora | |||||||
---|---|---|---|---|---|---|---|
NVIDIA_TESLA_K80
|
|
||||||
NVIDIA_TESLA_P4
|
|
||||||
NVIDIA_TESLA_P100
|
|
||||||
NVIDIA_TESLA_T4
|
|
||||||
NVIDIA_TESLA_V100
|
|
Europa
Aceleradores: preço por hora | |||||
---|---|---|---|---|---|
NVIDIA_TESLA_K80
|
|
||||
NVIDIA_TESLA_P4
|
|
||||
NVIDIA_TESLA_P100
|
|
||||
NVIDIA_TESLA_T4
|
|
||||
NVIDIA_TESLA_V100
|
|
Ásia-Pacífico
Aceleradores: preço por hora | |||||||
---|---|---|---|---|---|---|---|
NVIDIA_TESLA_K80
|
|
||||||
NVIDIA_TESLA_P4
|
|
||||||
NVIDIA_TESLA_P100
|
|
||||||
NVIDIA_TESLA_T4
|
|
||||||
NVIDIA_TESLA_V100
|
Indisponível |
Os preços são definidos por GPU. Portanto, se você usar várias GPUs por nó de previsão (ou se fizer escalonamento da versão para utilizar diversos nós), os custos serão escalonados proporcionalmente.
O AI Platform Prediction fornece previsões do seu modelo executando várias máquinas virtuais ("nós"). Por padrão, a IA Vertex escalona automaticamente o número de nós em execução a qualquer momento. Para previsão on-line, o número de nós é escalonado para atender à demanda. Cada nó pode responder a várias solicitações de previsão. Para previsão em lote, o número de nós é escalonado para reduzir o tempo total necessário para executar um job. Personalize a maneira como os nós de previsão são escalonados.
Você é cobrado pelo tempo que cada nó é executado para seu modelo, incluindo:
- Quando o nó está processando um job de previsão em lote.
- Quando o nó está processando uma solicitação de previsão on-line.
- Quando o nó está em um estado pronto para cumprir as previsões on-line.
O custo de um nó em execução por uma hora é uma hora do nó. A tabela de preços de previsão descreve o preço de uma hora de uso do nó, que varia entre as regiões e entre a previsão on-line e a previsão em lote.
As horas de uso do nó podem ser consumidas em incrementos fracionários. Por exemplo, um nó em execução por 30 minutos custa 0,5 horas por uso do nó.
Cálculo de custo dos tipos de máquina legados (MLS1) e previsão em lote
- O tempo de execução de um nó é medido em incrementos de um minuto, arredondado para o minuto mais próximo. Por exemplo, se um nó for executado por 20,1 minutos, calcule seu custo como se ele tivesse sido executado por 21 minutos.
- O tempo de execução para nós que são executados por menos de 10 minutos é arredondado para 10 minutos. Por exemplo, se um nó for executado por apenas 3 minutos, calcule o custo dele como se ele tivesse sido executado por 10 minutos.
Cálculo de custo dos tipos de máquina do Compute Engine (N1)
- O tempo de execução de um nó é cobrado em incrementos de 30 segundos. Isso significa que, a cada 30 segundos, seu projeto é cobrado por 30 segundos de uso de qualquer recurso, como vCPU, RAM ou GPU, que o nó esteja usando no momento.
Mais sobre escalonamento automático de nós de previsão
Previsão on-line | Previsão em lote |
---|---|
A prioridade do escalonamento é reduzir a latência de solicitações individuais. O serviço mantém seu modelo pronto em um estado de inatividade por alguns minutos após atender a uma solicitação. | A prioridade do escalonamento é reduzir o tempo total decorrido do job. |
O escalonamento afeta suas taxas totais a cada mês: quanto mais numerosas e frequentes forem suas solicitações, mais nós serão usados. | O escalonamento provavelmente não terá muito efeito sobre o preço do seu job, ainda que haja alguns gastos indiretos envolvidos na criação de um novo nó. |
Você pode escolher deixar o serviço ser escalonado em resposta ao tráfego (escalonamento automático) ou pode especificar vários nós para execução constante para evitar latência (escalonamento manual).
|
Influencie o escalonamento com a definição de um número máximo de nós a ser usado para um job de previsão em lote e com a definição do número de nós que continuarão em execução em um modelo quando ele for implantado. |
Taxa mínima de 10 minutos
Lembre-se de que, se um nó for executado por menos de 10 minutos, você será cobrado como se ele tivesse sido executado por 10 minutos. Por exemplo, suponha que você use o escalonamento automático. Durante um período sem tráfego, se você estiver usando um tipo de máquina legada (MLS1) no AI Platform Prediction, nenhum nó estará em uso. Se você usa outros tipos de máquina no AI Platform Prediction ou se usa o Vertex AI, pelo menos um nó estará sempre em uso. Se você receber uma única solicitação de previsão on-line, um nó será escalonado para atender à solicitação. Depois de atender à solicitação, o nó continuará em execução por alguns minutos em estado de prontidão. Em seguida, ele para. Mesmo que o nó tenha sido executado por menos de 10 minutos, você será cobrado por 10 minutos de nó (0,17 hora de uso do nó) pelo trabalho dele.
Como alternativa, se um único nó for escalonado e atender a muitas solicitações de previsão on-line em um período de 10 minutos antes do encerramento, você também será cobrado por 10 minutos de nó.
É possível usar o escalonamento manual para controlar exatamente quantos nós são executados durante um determinado período de tempo. No entanto, se um nó for executado por menos de 10 minutos, você ainda será cobrado como se ele tivesse sido executado por 10 minutos.
Saiba mais sobre alocação e escalonamento de nós.
Jobs de previsão em lote são cobrados após a conclusão do job
Os jobs de previsão em lote são cobrados após a conclusão do job, e não de forma incremental durante o job. Os alertas de orçamento do Cloud Billing que você configurou não são acionados enquanto um job está em execução. Antes de iniciar um job grande, primeiro execute alguns jobs de comparação de custos com pequenos dados de entrada.
Exemplo de um cálculo de previsão
Uma empresa imobiliária em uma região das Américas realiza uma previsão semanal de valores de habitação nas áreas em que atende. Em um mês, realiza previsões para quatro semanas em lotes de 3920
, 4277
, 3849
e 3961
. Os jobs são limitados a um nó, e cada instância leva uma média de 0.72
segundos de processamento.
Primeiro, calcule o período de tempo que cada job foi executado:
3920 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.04 minutes 4277 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 51.324 minutes 3849 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 46.188 minutes 3961 instances * (0.72 seconds / 1 instance) * (1 minute / 60 seconds) = 47.532 minutes
Cada job foi executado por mais de dez minutos, portanto a cobrança é feita por cada minuto de processamento:
($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964 ($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 52 minutes * 1 node = $0.0685711 ($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 47 minutes * 1 node = $0.061977725 ($0.0909886 / 1 node hour) * (1 hour / 60 minutes) * 48 minutes * 1 node = $0.0632964
A cobrança total do mês é de US$ 0,26.
Este exemplo considera que os jobs foram executados em um único nó e demoraram um período consistente de tempo por instância de entrada. No uso real, certifique-se de contabilizar vários nós e usar o tempo real que cada nó gasta em execução para os seus cálculos.
Cobranças pela Vertex Explainable AI
A Vertex Explainable AI vem sem cobrança extra para preços de previsão. Contudo, as explicações levam mais tempo para serem processadas do que as previsões normais. Assim, o uso pesado do Vertex Explainable AI com o escalonamento automático resulta em mais nós sendo iniciados, o que aumentaria as cobranças de previsão.
Pipelines de Vertex AI
O Vertex AI Pipelines tem uma taxa de execução de US$ 0,03 por pipeline. Não há cobranças pela taxa de execução durante o lançamento. Você também paga pelos recursos do Google Cloud usados com o Vertex AI Pipelines, como os componentes do Compute Engine consumidos por pipelines. O preço deles é igual ao do treinamento da Vertex AI. Por fim, você é responsável pelo custo de todos os serviços (como o Dataflow) chamados pelo seu pipeline.
Feature Store da Vertex AI
Os preços do Feature Store da Vertex AI dependem da quantidade de dados de recursos armazenados on-line e off-line, bem como da disponibilidade para exibição on-line. Uma hora de uso do nó representa o tempo que uma máquina virtual gasta exibindo dados do recurso ou aguardando em estado de prontidão para lidar com as solicitações de dados do recurso.
Operação | Preço |
---|---|
Armazenamento on-line | US$ 0,25 por GB/mês |
Armazenamento off-line | US$ 0,023 por GB/mês |
Exibição on-line | US$ 0,94 por nó/hora |
Exportação em lote | US$ 0,005 por GB |
Ingestão de streaming | US$ 0,10 por GB de processamento Não há cobranças durante o pré-lançamento. |
Quando você ativa o monitoramento do valor do recurso, o faturamento inclui as cobranças aplicáveis acima, além das cobranças aplicáveis a seguir:
- US$ 3,50 por GB para todos os dados analisados. Com a análise de snapshots ativada, os snapshots feitos para dados no Feature Store da Vertex AI são incluídos. Com a análise de atributos de importação ativada, são incluídos lotes de dados ingeridos.
- Outras cobranças para outras operações do Feature Store da Vertex AI usadas com o monitoramento de valor de recursos incluem o seguinte:
- O recurso de análise do snapshot gera periodicamente um snapshot dos valores do recurso com base na sua configuração para o intervalo de monitoramento.
- A cobrança de uma exportação de snapshot é igual à de uma operação de exportação em lote normal.
Exemplo de análise de snapshots
Um cientista de dados ativa o monitoramento de valor de recursos na Feature Store da Vertex AI e ativa o monitoramento para uma análise diária de snapshots. Um pipeline é executado diariamente para o monitoramento de tipos de entidade. O pipeline verifica 2 GB de dados no Feature Store da Vertex AI e exporta um snapshot que contém 0,1 GB de dados. A cobrança total da análise de um dia é:
(0.1 GB * $3.50) + (2 GB * $0.005) = $0.36
Exemplo de análise de ingestão
Um cientista de dados ativa o monitoramento de valor de recursos na Feature Store da Vertex AI e ativa o monitoramento de operações de ingestão. Uma operação de ingestão importa 1 GB de dados para o Feature Store da Vertex AI. A cobrança total do monitoramento do valor do recurso é:
(1 GB * $3.50) = $3.50
Vertex ML Metadata
O armazenamento de metadados é medido em gigabytes binários (GiB), sendo que 1 GiB é
igual a 1.073.741.824 bytes. Essa unidade de medida também é conhecida como um gibibyte
.
O Vertex ML Metadata cobra US $10 por gibibyte (GiB) por mês pelo armazenamento de metadados. Os preços são proporcionais por megabyte (MB). Por exemplo, se você armazenar 10 MB de metadados, serão cobrados US $0,10 por mês para esses 10 MB de metadados.
Os preços são os mesmos em todas as regiões compatíveis com o Vertex ML Metadata.
Vertex AI TensorBoard
Para usar o Vertex AI TensorBoard, solicite que o administrador do IAM do projeto atribua a você o papel "Vertex AI TensorBoard Web App User". O papel de administrador da Vertex AI também tem acesso.
A Vertex AI TensorBoard cobra uma taxa mensal de US$ 300 por usuário ativo único. Os usuários ativos são medidos com a IU da Vertex AI TensorBoard. Também é preciso pagar pelos recursos do Google Cloud usados com o TensorBoard da Vertex AI, como os registros do produto armazenados no Cloud Storage.
Vertex AI Vizier
O Vertex AI Vizier é um serviço de otimização de caixa preta dentro do Vertex AI. O modelo de preços da Vertex AI Vizier consiste no seguinte:
- Não há cobranças para testes que usam
RANDOM_SEARCH
eGRID_SEARCH
. Saiba mais sobre os algoritmos de pesquisa. - Os primeiros 100 testes da Vertex AI Vizier por mês estão disponíveis gratuitamente. Os testes com
RANDOM_SEARCH
eGRID_SEARCH
não contam para esse total. - Após os 100 testes da Vertex AI Vizier, os testes subsequentes durante o mesmo mês serão cobrados a US$ 1,00 por teste (testes que usam
RANDOM_SEARCH
ouGRID_SEARCH
não geram cobrança).
Mecanismo de correspondência Vertex AI
O preço do serviço aproximadamente o vizinho mais próximo do Vertex AI Match Engine consiste em:
- hora de uso do nó para cada VM usada na hospedagem de um índice implantado;
- Um custo para criar novos índices, atualizar índices existentes e usar atualizações de índice de streaming.
Os dados processados durante a criação e atualização dos índices são medidos em gigabytes (GiB) binários, em que 1 GiB é 1.073.741.824 bytes. Essa unidade de medida
também é conhecida como gibibyte
.
O mecanismo de correspondência da Vertex AI cobra US $3,00 por gibibyte (GiB) de dados processados em todas as regiões. O mecanismo de correspondência da Vertex AI cobra US $0,45/GB ingerido para inserções de atualização de streaming. As atualizações do Streaming não são cobradas durante o pré-lançamento.
As tabelas a seguir resumem os preços de exibição de índice em cada região em que o mecanismo correspondente está disponível.
Américas
Tipo de máquina - Região - Preço por hora de uso do nó | |||||||||
---|---|---|---|---|---|---|---|---|---|
n1-standard-16
|
|
||||||||
n1-standard-32
|
|
Europa
Tipo de máquina - Região - Preço por hora de uso do nó | |||
---|---|---|---|
n1-standard-16
|
|
||
n1-standard-32
|
|
Ásia-Pacífico
Tipo de máquina - Região - Preço por hora de uso do nó | |||
---|---|---|---|
n1-standard-16
|
|
||
n1-standard-32
|
|
Exemplos de preços do mecanismo correspondente
Os preços do Vertex AI Matching Engine são determinados pelo tamanho dos dados, pela quantidade de consultas por segundo (QPS) que você quer executar e pelo número de nós que você usa. Para ver o custo de veiculação estimado, você precisa calcular o tamanho total dos dados. O tamanho dos dados é a quantidade de embeddings/vetores* do número de dimensões que você tem* quatro bytes por dimensão. Quando você tiver o tamanho dos dados, poderá calcular o custo de serviço e o custo de criação. O custo de veiculação mais o custo de criação é igual ao custo total mensal.
- Custo de veiculação: # réplicas/fragmento * # fragmentos (~tamanho do dado/20 GB) * US$ 1,064/hora * 24 horas/dia * 30 dias/mês
- Custo de construção: tamanho dos dados(em GB) * US$ 3/GB * número de atualizações por mês
O custo mensal de criação do índice é o tamanho dos dados * 3,00 por gigabyte. A frequência de atualização não afeta o custo de veiculação, apenas o custo de criação. Se você usar as atualizações de índice de streaming, seu índice será recriado quando os dados transmitidos atingirem 1 GB ou após três dias, o que ocorrer primeiro. Esses parâmetros vão ser ajustados à medida que abordarmos a disponibilidade global (GA) do recurso para reduzir ainda mais a frequência de recriação de índices. O job de recriação de índice completo para atualizações de streaming é cobrado pelo preço de criação do índice em lote de US $3/GB.
Número de embeddings/vetores | Número de dimensões | Consultas por segundo (QPS) | Frequência de atualização | Custo estimado de criação do índice mensal | Nós | Custo mensal estimado para veiculação |
---|---|---|---|---|---|---|
20 milhões | 128 | 1.000 | Mensal | US$ 30 | 1 | US$ 766 |
100 milhões | 256 | 3.000 | Semanal | US$ 1.200 | 15 | US$ 11.491 |
500 milhões | 128 | 20.000 | Semanal | US$ 3.000 | 260 | US$ 199.160 |
1 bilhão | 512 | 5.000 | Mensal | US$ 6 mil | 500 | US$ 383.000 |
Todos os exemplos são baseados em n1-standard-16
em us-central1
.
O custo varia de acordo com a taxa de recall e os requisitos de latência. O custo estimado de serviço mensal está diretamente relacionado ao número de nós usados no console.
Para saber mais sobre parâmetros de configuração que afetam o custo, consulte
Parâmetros de configuração que afetam o recall e a latência.
Se você tem consultas por segundo (QPS) altas, o agrupamento dessas consultas pode reduzir o custo total de até 30% a 40%.
Vertex AI Model Registry
O Vertex AI Model Registry é um repositório central que rastreia e lista seus modelos e versões de modelo. É possível importar modelos para a Vertex AI, e eles aparecem no registro de modelos da Vertex AI. Não há custo associado para ter seus modelos no registro de modelos da Vertex AI. O custo só é gerado quando você implanta o modelo em um endpoint ou executa uma previsão em lote no modelo. Esse custo é determinado pelo tipo de modelo que você está implantando.
Para saber mais sobre preços para implantar modelos personalizados do Vertex AI Model Registry, consulte Modelos treinados de maneira personalizada. Para saber mais sobre os preços de implantação de modelos do AutoML, consulte Preços de modelos do AutoML.
Monitoramento de modelos com a Vertex AI
Com a Vertex AI, é possível monitorar a eficácia contínua do seu modelo depois de implantá-lo na produção. Para mais informações, consulte Introdução ao Vertex AI Model Monitoring.
Ao usar o Vertex AI Model Monitoring, você recebe cobranças da seguinte forma:
- US$ 3,50 por GB para todos os dados analisados, incluindo os dados de treinamento fornecidos e os dados de previsão registrados em uma tabela do BigQuery
- Cobranças por outros produtos do Google Cloud que você usa com o Model Monitoring, como o armazenamento do BigQuery ou o Batch Explain, quando o monitoramento de atribuição está ativado
O Vertex AI Model Monitoring é compatível com as seguintes regiões: us-central1
,
europe-west4
, asia-east1
e asia-southeast1
pelo mesmo
preço.
Os tamanhos dos dados são medidos depois de serem convertidos para o formato TfRecord.
Conjuntos de dados de treinamento geram uma cobrança única quando você configura um job do Vertex AI Model Monitoring.
Os conjuntos de dados de previsão são registros coletados do serviço de previsão on-line. Conforme as solicitações de previsão chegam durante janelas de tempo diferentes, os dados de cada janela são coletados e a soma das informações analisadas em cada janela de previsão é usada para calcular a cobrança.
Exemplo: um cientista de dados executa o monitoramento de modelo no tráfego de previsão que pertence ao modelo.
- O modelo é treinado com um conjunto de dados do BigQuery. O tamanho dos dados após a conversão para TfRecord é de 1,5 GB.
- Os dados de previsão registrados entre 13h e 14h são de 0,1 GB, entre 15h e 16h é de 0,2 GB.
O preço total para configurar o job de monitoramento de modelo é:
(1.5 GB * $3.50) + ((0.1 GB + 0.2 GB) * $3.50) = $6.30
Vertex AI Workbench
Os preços são compostos pelos recursos de computação e armazenamento usados, pelas taxas de gerenciamento das instâncias do Vertex AI Workbench e por outros recursos adicionais do Google Cloud que forem usados. Consulte as seções a seguir para mais detalhes.
Recursos de computação e armazenamento
Os recursos de computação e armazenamento são cobrados da mesma forma que você paga atualmente pelo Compute Engine e pelo Cloud Storage.
Taxas de administração
Há taxas de gerenciamento do Vertex AI Workbench, além do uso da infraestrutura, capturado nas tabelas abaixo.
Selecione notebooks gerenciados ou notebooks gerenciados pelo usuário para informações sobre preços.
Notebooks gerenciados
SKU | Taxa de gerenciamento por hora |
---|---|
vCPU | US$ 0,05 por vCore |
T4, K80 e P4 (GPU padrão) | US$ 0,35 por GPU |
GPU P100, V100 e A100 (GPU Premium) | US$ 2,48 por GPU |
Notebooks gerenciados por usuários
SKU | Taxa de gerenciamento por hora |
---|---|
vCPU | US$ 0,005 por vCore |
T4, K80 e P4 (GPU padrão) | US$ 0,035 por GPU |
GPU P100, V100 e A100 (GPU Premium) | US$ 0,25 por GPU |
Recursos adicionais do Google Cloud
Além dos custos mencionados anteriormente, você também paga por todos os recursos do Google Cloud que usar. Exemplo:
Serviços de análise dos dados: os custos do BigQuery são gerados ao emitir consultas SQL em um notebook. Consulte os Preços do BigQuery.
Chaves de criptografia gerenciadas pelo cliente: você está sujeito a cobranças pelo uso. Sempre que os notebooks gerenciados ou a instância de notebooks gerenciados pelo usuário usam uma chave do Cloud Key Management Service, a operação será cobrada de acordo com a taxa das operações de chave do Cloud KMS. Consulte Preços do Cloud Key Management Service).
Contêineres de aprendizado profundo, VM de aprendizado profundo e pipelines do AI Platform
Para contêineres de aprendizado profundo, imagens de VM de aprendizado profundo e pipelines do AI Platform, o preço é calculado com base nos recursos de computação e armazenamento que você usa. Esses recursos são cobrados na mesma taxa que você paga atualmente pelo Compute Engine e pelo Cloud Storage.
Além dos custos de computação e armazenamento, você também paga por quaisquer recursos do Google Cloud que usar. Exemplo:
Serviços de análise dos dados: os custos do BigQuery são gerados ao emitir consultas SQL em um notebook. Consulte os Preços do BigQuery.
Chaves de criptografia gerenciadas pelo cliente: você está sujeito a cobranças pelo uso. Sempre que os notebooks gerenciados ou a instância de notebooks gerenciados pelo usuário usam uma chave do Cloud Key Management Service, a operação será cobrada de acordo com a taxa das operações de chave do Cloud KMS. Consulte Preços do Cloud Key Management Service).
Rotulagem de dados
Com a IA Vertex, é possível solicitar a rotulagem humana de uma coleção de dados que você planeja usar para treinar um modelo de machine learning personalizado. Os preços do serviço são calculados com base no tipo de tarefa de rotulagem.
- Para tarefas de rotulagem regular, os preços são determinados pelo número de
unidades de anotação.
- Em uma tarefa de classificação de imagem, as unidades são determinadas com base no número de imagens e na quantidade de rotuladores humanos. Por exemplo, uma imagem com três rotuladores humanos será contabilizada como de 1 * 3 = 3 unidades. O preço da classificação de rótulo único e vários rótulos é o mesmo.
- Em uma tarefa de caixa delimitadora de imagem, as unidades são determinadas pelo número de caixas delimitadoras identificadas nas imagens e pelo número de rotuladores humanos. Por exemplo, uma imagem com duas caixas delimitadoras e três rotuladores humanos será contabilizada como 2 * 3 = 6 unidades. Imagens sem caixas delimitadoras não geram cobrança.
- Em uma segmentação de imagem/caixa rotacionada/linha poligonal/tarefa poligonal, as unidades são determinadas da mesma forma que uma tarefa de caixa delimitadora de imagem.
- Em uma tarefa de classificação de vídeo, as unidades são determinadas pela duração do vídeo (cinco segundos equivalem a uma unidade de preço) e pelo número de rotuladores humanos. Por exemplo, um vídeo de 25 segundos com três rotuladores humanos é contabilizado como 25 / 5 * 3 = 15 unidades. O preço da classificação de rótulo único e vários rótulos é o mesmo.
- Em uma tarefa de detecção de objetos em vídeo, a unidade é determinada pelo número de objetos identificados no vídeo e pelo número de rotuladores humanos. Por exemplo, um vídeo com dois objetos e três rotuladores humanos é contabilizado como 2 * 3 = 6 unidades. Vídeos sem objetos não geram cobrança.
- Em uma tarefa de reconhecimento de ação em vídeo, as unidades são determinadas da mesma maneira que em uma tarefa de rastreamento de objetos de vídeo.
- Em uma tarefa de classificação de texto, as unidades são determinadas pelo tamanho do texto (cada 50 palavras equivalem a uma unidade de preço) e pelo número de rotuladores humanos. Por exemplo, um trecho de texto com 100 palavras e três rotuladores humanos é contabilizado como 100 / 50 * 3 = 6 unidades. O preço da classificação de rótulo único e vários rótulos é o mesmo.
- Em uma tarefa de sentimento de texto, as unidades são determinadas da mesma maneira que uma tarefa de classificação de texto.
- Em uma tarefa de extração de entidade de texto, as unidades são determinadas por comprimento do texto (cada 50 palavras equivale a uma unidade de preço), o número de entidades identificadas e o número de rotuladores humanos. Por exemplo, um trecho de texto com 100 palavras, duas entidades identificadas e três rotuladores humanos é contabilizado como 100 / 50 * 2 * 3 = 12 unidades. Textos sem entidades não geram cobrança.
Nas tarefas de classificação de imagem/vídeo/texto, e de sentimento de texto é possível que os rotuladores humanos percam o controle das classes se o tamanho do conjunto de rótulos for muito grande. Como resultado, enviamos no máximo 20 classes para os rotuladores humanos de cada vez. Por exemplo, se o tamanho do conjunto de rótulos de uma tarefa de rotulagem for 40, cada item de dados será enviado para revisão humana 40 / 20 = 2 vezes e cobraremos duas vezes do preço calculado acima.
Para uma tarefa de rotulagem que ativa o recurso de rotulador personalizado, cada item de dados é contabilizado como uma unidade de rotulador personalizada.
Em uma tarefa de rotulagem de aprendizagem ativa para itens de dados com anotações geradas por modelos (sem a ajuda de um rotulador humano), cada item de dados é contabilizado como uma unidade de aprendizagem ativa.
Para uma tarefa de rotulagem de aprendizagem ativa para itens de dados com anotações geradas por rotuladores humanos, cada item de dados é contado como uma tarefa de rotulagem regular conforme descrito acima.
Na tabela abaixo, você confere o preço por 1.000 unidades por rotulador humano com base na unidade listada para cada objetivo. Os preços do nível 1 se aplicam às primeiras 50 mil unidades por mês em cada projeto do Google Cloud. Os do nível 2 se aplicam às 950 mil unidades seguintes por mês no projeto, com um máximo de um milhão de unidades. Entre em contato conosco para saber os preços acima de um milhão de unidades por mês.
Tipo de dado | Objetivo | Unidade | Nível 1 | Nível 2 |
---|---|---|---|---|
Image | Classificação | Imagem | US$ 35 | US$ 25 |
Caixa delimitadora | Caixa delimitadora | US$ 63 | US$ 49 | |
Segmentação | Segmento | US$ 870 | US$ 850 | |
Caixa rotacionada | Caixa delimitadora | US$ 86 | US$ 60 | |
Polígono/linha poligonal | Polígono/linha poligonal | US$ 257 | US$ 180 | |
Vídeo | Classificação | Vídeo de 5 segundos | US$ 86 | US$ 60 |
Rastreamento de objetos | Caixa delimitadora | US$ 86 | US$ 60 | |
Reconhecimento de ação | Evento em vídeo de 30 segundos | US$ 214 | US$ 150 | |
Texto | Classificação | 50 palavras | US$ 129 | US$ 90 |
Sentimento | 50 palavras | US$ 200 | US$ 140 | |
Extração de entidade | Entidade | US$ 86 | US$ 60 | |
Aprendizagem ativa | Tudo | Item de dados | US$ 80 | US$ 56 |
Rotulador personalizado | Tudo | Item de dados | US$ 80 | US$ 56 |
Uso obrigatório do Cloud Storage
Além dos custos descritos neste documento, você precisa armazenar dados e arquivos de programas nos buckets do Cloud Storage durante o ciclo de vida da IA Vertex. Esse armazenamento está sujeito à política de preços do Cloud Storage.
O uso obrigatório do Cloud Storage inclui:
Preparação do pacote de aplicativo de treinamento para modelos treinados personalizados
Armazenamento dos dados de entrada do treinamento
Armazenamento do resultado dos jobs de treinamento. A IA Vertex não requer armazenamento a longo prazo desses itens. Remova os arquivos assim que a operação for concluída.
Operações gratuitas para gerenciar seus recursos
As operações de gerenciamento de recursos fornecidas pela AI Platform estão disponíveis gratuitamente. A política de cotas da AI Platform limita algumas dessas operações.
Recurso | Operações gratuitas |
---|---|
modelos | create, get, list, delete |
versões | create, get, list, delete, setDefault |
jobs | get, list, cancel |
operações | get, list, cancel, delete |
Custos do Google Cloud
Se você armazenar imagens para serem analisadas no Cloud Storage ou usar outros recursos do Google Cloud com a IA Vertex, então também receberá cobrança pelo uso desses serviços.
Para ver seu status atual de faturamento no Console do Google Cloud, incluindo o uso e a fatura atual, consulte a página "Faturamento". Para mais detalhes sobre o gerenciamento da sua conta, consulte a documentação do Cloud Billing ou o suporte de faturamento e pagamentos.
A seguir
- Leia a documentação da Vertex AI.
- Saiba mais sobre soluções e casos de uso da Vertex AI.
Solicite uma cotação personalizada
Com os preços de pagamento por utilização do Google Cloud, você paga apenas pelos serviços que usa. Fale com nossa equipe de vendas e receba uma cotação personalizada para sua organização.Entre em contato com a equipe de vendas