Visão geral da integração da Vertex AI com o Spanner

Nesta página, apresentamos uma visão geral da integração da Vertex AI com o Spanner. A integração da Vertex AI com o Spanner funciona com bancos de dados GoogleSQL e PostgreSQL.

A integração da Vertex AI com o Spanner ajuda a acessar modelos de ML de regressão e classificador hospedados na Vertex AI pela interface do GoogleSQL e do PostgreSQL. Isso ajuda a integrar perfeitamente a funcionalidade de veiculação de previsões de ML com as operações gerais de acesso aos dados do Spanner realizadas com consultas DQL/DML.

Benefícios da integração da Vertex AI com o Spanner

A geração de previsões de ML usando a integração da Vertex AI com o Spanner oferece vários benefícios em comparação com a abordagem em que o acesso aos dados do Spanner e o acesso ao endpoint de previsão da Vertex AI são realizados separadamente:

  • Desempenho:
    • Melhor latência: a integração da Vertex AI do Spanner com o serviço da Vertex AI elimina diretamente o tempo de retorno entre um nó de computação que executa um cliente do Spanner e o serviço da Vertex AI.
    • Melhor capacidade/paralelismo: a integração da Vertex AI com o Spanner é executada na infraestrutura de processamento de consultas distribuída do Spanner, que dá suporte à execução de consultas altamente paralelizável.
  • Experiência do usuário:
    • A capacidade de usar uma interface SQL única, simples, coerente e familiar para facilitar a transformação de dados e os cenários de exibição de ML no nível de escala do Spanner diminui a barreira de entrada de ML e permite uma experiência do usuário muito mais suave.
  • Custos:
    • A integração da Vertex AI do Spanner usa a capacidade de computação do Spanner para mesclar os resultados dos cálculos de ML e a execução da consulta SQL, o que elimina a necessidade de provisionar mais computação (por exemplo, no Compute Engine ou no Google Kubernetes Engine) para isso.

Como funciona a integração da Vertex AI com o Spanner?

A integração da Vertex AI com o Spanner não hospeda modelos de ML, mas depende da infraestrutura de serviço da Vertex AI. Você não precisa treinar um modelo usando a Vertex AI para usá-lo com a integração da Vertex AI do Spanner, mas precisa implantá-lo em um endpoint da Vertex AI.

Para treinar modelos com dados armazenados no Spanner, use o seguinte:

A integração da Vertex AI com o Spanner amplia as seguintes funções para o uso de modelos de ML:

Como usar as funções de integração da Vertex AI do Spanner

Um modelo na integração da Vertex AI com o Spanner pode ser usado para gerar previsões ou embeddings de texto no código SQL usando as funções ML Predict. Essas funções são as seguintes:

GoogleSQL

É possível usar a seguinte função de previsão de ML para GoogleSQL:

ML.PREDICT

É necessário registrar seu modelo usando a instrução DDL CREATE MODEL antes de usá-lo com a função ML.PREDICT.

Também é possível usar SAFE.ML.PREDICT para retornar null em vez de um erro nas previsões. Isso é útil nos casos de execução de consultas grandes em que algumas previsões com falha são toleráveis.

PostgreSQL

Use a seguinte função de previsão de ML para PostgreSQL:

spanner.ML_PREDICT_ROW

Para usar as funções, selecione um modelo do Model Garden da Vertex AI ou use um modelo implantado na Vertex AI.

Para mais informações sobre como implantar um modelo em um endpoint na Vertex AI, consulte Implantar um modelo em um endpoint.

Para mais informações sobre como usar essas funções para gerar uma previsão de ML, consulte Gerar previsões de ML usando SQL.

Para mais informações sobre como usar essas funções para gerar embeddings de texto, consulte Receber embeddings de texto.

Preços

Não há cobranças extras do Spanner quando você o usa com a integração da Vertex AI. No entanto, existem outras possíveis cobranças associadas a esse recurso:

  • Você paga as taxas padrão para a previsão on-line da Vertex AI. O valor total depende do tipo de modelo usado. Alguns tipos de modelo têm uma taxa fixa por hora, dependendo do tipo de máquina e do número de nós que você usa. Alguns tipos de modelo têm taxas por chamada. Recomendamos que você implante o segundo caso em um projeto dedicado em que tenha definido cotas de previsão explícitas.

  • Você paga as taxas padrão para a transferência de dados entre o Spanner e a Vertex AI. A cobrança total depende da região que hospeda o servidor que executa a consulta e da região que hospeda o endpoint chamado. Para reduzir as cobranças, implante os endpoints da Vertex AI na mesma região que a instância do Spanner. Ao usar configurações de instâncias multirregionais ou vários endpoints da Vertex AI, implante seus endpoints no mesmo continente.

no SLA

Como a disponibilidade de previsão on-line da Vertex AI está sendo menor, é necessário configurar corretamente os modelos de ML do Spanner para manter a alta disponibilidade do Spanner durante o uso da integração da Vertex AI com o Spanner:

  1. Os modelos de ML do Spanner precisam usar vários endpoints da Vertex AI no back-end para ativar o failover.
  2. Os endpoints da Vertex AI precisam estar em conformidade com o SLA da Vertex AI.
  3. Os endpoints da Vertex AI precisam provisionar capacidade suficiente para lidar com o tráfego de entrada.
  4. Os endpoints da Vertex AI precisam usar regiões separadas próximas ao banco de dados do Spanner para evitar interrupções regionais.
  5. Os endpoints da Vertex AI precisam usar projetos separados para evitar problemas com cotas de previsão por projeto.

O número de endpoints redundantes da Vertex AI depende do SLA e do número de linhas nas consultas do Spanner:

SLA do Spanner SLA da Vertex AI 1 linha 10 linhas 100 linhas 1.000 linhas
99,99% 99,9% 2 2 2 3
99,99% 99,5% 2 3 3 4
99,999% 99,9% 2 2 3 3
99,999% 99,5% 3 3 4 4

Os endpoints da Vertex AI não precisam hospedar exatamente o mesmo modelo. Recomendamos que você configure o modelo de ML do Spanner para ter um modelo primário, complexo e de uso intensivo de computação como o primeiro endpoint. Os endpoints de failover subsequentes podem apontar para modelos simplificados que consomem menos computação, têm melhor escalonabilidade e absorvem picos de tráfego.

Compliance

Os Assured Workloads não são compatíveis com a API Vertex AI Prediction. Ativar uma restrição de uso de recursos restrito desativa a API Vertex AI e o recurso de integração da Vertex AI do Spanner.

Além disso, recomendamos que você crie um perímetro do VPC Service Controls para garantir que os bancos de dados de produção não se conectem a endpoints da Vertex AI nos projetos de não produção que podem não ter a configuração de conformidade adequada.