Visão geral da integração da Vertex AI com o Spanner

Nesta página, você encontra uma visão geral da integração da Vertex AI com o Spanner. A integração da Vertex AI com o Spanner funciona Bancos de dados GoogleSQL e PostgreSQL.

A integração da Vertex AI com o Spanner ajuda a acessar modelos de ML de regressão e classificador hospedados em a Vertex AI pelo GoogleSQL e Interface PostgreSQL. Isso ajuda a integrar perfeitamente a funcionalidade de disponibilização de previsões de ML com Operações de acesso aos dados do Spanner realizadas com consultas DQL/DML.

Benefícios da integração da Vertex AI com o Spanner

Gerar previsões de ML usando a integração da Vertex AI com o Spanner oferece vários benefícios em comparação com abordagem em que o acesso aos dados do Spanner e à Vertex AI endpoint de previsão são executados separadamente:

  • Desempenho:
    • Melhor latência: a integração da Vertex AI com o Spanner se comunica diretamente com o serviço da Vertex AI elimina idas e voltas adicionais entre um nó de computação que executa o e o serviço da Vertex AI.
    • Melhor capacidade de processamento/paralelismo: a integração da Vertex AI com o Spanner é executada com base no infraestrutura distribuída de processamento de consultas, que oferece suporte execução de consulta em paralelo.
  • Experiência do usuário:
    • Capacidade de usar uma interface SQL única, simples, coerente e familiar para facilitar os cenários de transformação de dados e disponibilização de ML no Spanner de escalonamento reduz a barreira de entrada do ML e facilita a experiência do usuário do usuário.
  • Custos:
    • A integração da Vertex AI com o Spanner usa a capacidade de computação do Spanner para mesclar os resultados dos cálculos de ML e da execução de consulta SQL, elimina a necessidade de provisionar mais recursos de computação (por exemplo, Compute Engine ou Google Kubernetes Engine) para isso.

Como funciona a integração da Vertex AI com o Spanner?

A integração da Vertex AI com o Spanner não hospeda modelos de ML, mas depende do serviço da Vertex AI infraestrutura. Não é preciso treinar um modelo usando a Vertex AI usá-lo com a integração da Vertex AI com o Spanner, mas ele precisa ser implantado em um endpoint da Vertex AI.

Para treinar modelos com dados armazenados no Spanner, é possível usar o seguinte:

A integração da Vertex AI com o Spanner estende as seguintes funções para uso de modelos de ML:

Como usar as funções de integração da Vertex AI do Spanner

Um modelo na integração da Vertex AI com o Spanner pode ser usado para gerar previsões ou texto embeddings no seu código SQL usando as funções ML Predict. Essas funções são os seguintes:

GoogleSQL

É possível usar a seguinte função de previsão de ML para o GoogleSQL:

ML.PREDICT

Você precisa registrar seu modelo usando o CREATE MODEL instrução DDL antes de usá-la com a função ML.PREDICT.

Também é possível usar SAFE.ML.PREDICT para retornar null em vez de um erro no suas previsões. Isso é útil quando se executa consultas grandes em que algumas previsões com falha são toleráveis.

PostgreSQL

É possível usar a seguinte função de previsão de ML para o PostgreSQL:

spanner.ML_PREDICT_ROW

Para usar as funções, é possível selecionar um modelo Model Garden da Vertex AI ou usar um modelo implantado na Vertex AI.

Para mais informações sobre como implantar um modelo em um endpoint na Vertex AI, consulte Implantar um modelo em um endpoint.

Para mais informações sobre como usar essas funções para gerar uma previsão de ML, consulte Gerar previsões de ML usando SQL.

Para mais informações sobre como usar essas funções para gerar embeddings de texto, consulte Receber embeddings de texto.

Preços

Não há cobranças extras do Spanner quando você o usa com a integração da Vertex AI com o Spanner. No entanto, esse recurso pode ter outras cobranças:

  • Você paga as taxas padrão para a Vertex AI previsão on-line. A cobrança total depende do tipo de modelo usado. Algum modelo têm uma taxa fixa por hora, dependendo do tipo de máquina e do número de nós que você usa. Alguns tipos de modelo têm taxas por chamada. Recomendamos que você implantar o segundo em um projeto dedicado em que você definiu a previsão explícita cotas.

  • Você paga as taxas padrão para transferência de dados entre o Spanner e a Vertex AI. A cobrança total depende a região que hospeda o servidor que executa a consulta e a região que hospeda o chamada endpoint. Implante os endpoints da Vertex AI para minimizar as cobranças na mesma região da sua instância do Spanner. Ao usar recursos multirregionais configurações de instância ou vários endpoints da Vertex AI, implante seu no mesmo continente.

SLA

Devido à disponibilidade de previsão on-line da Vertex AI ser é preciso configurar corretamente os modelos de ML do Spanner para manter Alta disponibilidade do Spanner ao usar a integração da Vertex AI com o Spanner:

  1. Os modelos de ML do Spanner precisam usar várias endpoints no back-end para ativar o failover.
  2. Os endpoints da Vertex AI precisam estar em conformidade com o SLA da Vertex AI.
  3. Os endpoints da Vertex AI precisam provisionar capacidade suficiente para lidar o tráfego de entrada.
  4. Os endpoints da Vertex AI precisam usar regiões separadas próximas aos Banco de dados do Spanner para evitar interrupções regionais.
  5. Os endpoints da Vertex AI devem usar projetos separados para evitar problemas com cotas de previsão por projeto.

O número de endpoints redundantes da Vertex AI depende do SLA deles. o número de linhas nas consultas do Spanner:

SLA do Spanner SLA da Vertex AI 1 linha 10 linhas 100 linhas 1.000 linhas
99,99% 99,9% 2 2 2 3
99,99% 99,5% 2 3 3 4
99,999% 99,9% 2 2 3 3
99,999% 99,5% 3 3 4 4

Os endpoints da Vertex AI não precisam hospedar exatamente o mesmo modelo. Qa é recomendado configurar o modelo de ML do Spanner para ter uma complexo e com uso intensivo de computação como primeiro endpoint. Failover subsequente podem apontar para modelos simplificados que exigem menos computação têm melhor capacidade de escalonamento e podem absorver picos de tráfego.

Compliance

O Assured Workloads não é compatível com API Vertex AI Prediction. Ativar um restringir restrição de uso de recursos desativa a API Vertex AI e efetivamente o recurso de integração da Vertex AI do Spanner.

Além disso, recomendamos que você crie um perímetro do VPC Service Controls para garantir que os bancos de dados de produção não podem se conectar aos endpoints Vertex AI projetos de não produção que podem não ter a configuração de conformidade adequada.