Vista geral da integração do Spanner com a Vertex AI

Esta página fornece uma vista geral da integração do Spanner com o Vertex AI. A integração do Vertex AI do Spanner funciona com bases de dados GoogleSQL e PostgreSQL.

A integração do Spanner com o Vertex AI ajuda a aceder a modelos de ML de classificação e regressão alojados no Vertex AI através da interface do GoogleSQL e do PostgreSQL. Isto ajuda a integrar perfeitamente a funcionalidade de publicação de previsões de ML com operações gerais de acesso a dados do Spanner realizadas através de consultas DQL/DML.

Vantagens da integração do Spanner com o Vertex AI

A geração de previsões de ML através da integração do Vertex AI com o Spanner oferece várias vantagens em comparação com a abordagem em que o acesso aos dados do Spanner e o acesso ao ponto final de previsão do Vertex AI são realizados separadamente:

  • Desempenho:
    • Melhor latência: a integração do Spanner Vertex AI que comunica diretamente com o serviço Vertex AI elimina viagens de ida e volta adicionais entre um nó de computação que executa um cliente do Spanner e o serviço Vertex AI.
    • Melhor débito/paralelismo: a integração do Spanner com a Vertex AI é executada na infraestrutura de processamento de consultas distribuídas do Spanner, que suporta a execução de consultas altamente paralelizada.
  • Experiência do utilizador:
    • A capacidade de usar uma interface SQL única, simples, coerente e familiar para facilitar os cenários de transformação de dados e de serviço de ML à escala do Spanner reduz a barreira de entrada da ML e permite uma experiência do utilizador muito mais fluida.
  • Custos:
    • A integração do Spanner com a Vertex AI usa a capacidade de computação do Spanner para unir os resultados dos cálculos de ML e da execução de consultas SQL, o que elimina a necessidade de aprovisionar uma computação adicional (por exemplo, no Compute Engine ou no Google Kubernetes Engine) para esse fim.

Como funciona a integração do Spanner com o Vertex AI?

A integração do Spanner Vertex AI não aloja modelos de ML, mas depende da infraestrutura do serviço Vertex AI. Não precisa de preparar um modelo com o Vertex AI para o usar com a integração do Vertex AI do Spanner, mas tem de o implementar num ponto final do Vertex AI.

Para preparar modelos com dados armazenados no Spanner, pode usar o seguinte:

A integração do Spanner com a Vertex AI expande as seguintes funções para usar modelos de ML:

Usar funções de integração do Vertex AI do Spanner

Pode usar um modelo na integração do Vertex AI do Spanner para gerar previsões ou incorporações de texto no seu código SQL através das funções ML Predict. Estas funções são as seguintes:

GoogleSQL

Pode usar a seguinte função ML predict para GoogleSQL:

ML.PREDICT

Tem de registar o seu modelo através da declaração DDL CREATE MODEL antes de o usar com a função ML.PREDICT.

Também pode usar SAFE.ML.PREDICT para devolver null em vez de um erro nas suas previsões. Isto é útil nos casos em que executa consultas grandes em que algumas previsões falhadas são toleráveis.

PostgreSQL

Pode usar a seguinte função de previsão de ML para PostgreSQL:

spanner.ML_PREDICT_ROW

Para usar as funções, pode selecionar um modelo no Vertex AI Model Garden ou usar um modelo que implementou no Vertex AI.

Para mais informações sobre como implementar um modelo num ponto final na Vertex AI, consulte Implemente um modelo num ponto final.

Para mais informações sobre como usar estas funções para gerar uma previsão de ML, consulte o artigo Gere previsões de ML com SQL.

Para mais informações sobre como usar estas funções para gerar incorporações de texto, consulte o artigo Obtenha incorporações de texto.

Preços

Não existem custos adicionais do Spanner quando o usa com a integração do Vertex AI do Spanner. No entanto, existem outros potenciais custos associados a esta funcionalidade:

  • Paga as tarifas padrão da Vertex AI Online Prediction. A cobrança total depende do tipo de modelo que usar. Alguns tipos de modelos têm uma tarifa fixa por hora, consoante o tipo de máquina e o número de nós que usa. Alguns tipos de modelos têm tarifas por chamada. Recomendamos que implemente o último num projeto dedicado onde tenha definido quotas de previsão explícitas.

  • Paga as tarifas padrão de transferência de dados entre o Spanner e o Vertex AI. O custo total depende da região que aloja o servidor que executa a consulta e da região que aloja o ponto final chamado. Para minimizar os custos, implemente os seus pontos finais da Vertex AI na mesma região que a sua instância do Spanner. Quando usar configurações de instâncias multirregionais ou vários pontos finais da Vertex AI, implemente os seus pontos finais no mesmo continente.

SLA

Devido à disponibilidade da previsão online do Vertex AI ser inferior, tem de configurar corretamente os modelos de ML do Spanner para manter a elevada disponibilidade do Spanner enquanto usa a integração do Spanner com o Vertex AI:

  1. Os modelos de ML do Spanner têm de usar vários pontos finais da Vertex AI no back-end para ativar a comutação por falha.
  2. Os pontos finais do Vertex AI têm de estar em conformidade com o ANS do Vertex AI.
  3. Os pontos finais da Vertex AI têm de aprovisionar capacidade suficiente para processar o tráfego recebido.
  4. Os pontos finais da Vertex AI têm de usar regiões separadas perto da base de dados do Spanner para evitar indisponibilidades regionais.
  5. Os pontos finais do Vertex AI devem usar projetos separados para evitar problemas com as quotas de previsão por projeto.

O número de pontos finais da Vertex AI redundantes depende do respetivo SLA e do número de linhas nas consultas do Spanner:

SLA do Spanner ANS do Vertex AI 1 linha 10 linhas 100 linhas 1000 linhas
99,99% 99,9% 2 2 2 3
99,99% 99,5% 2 3 3 4
99,999% 99,9% 2 2 3 3
99,999% 99,5% 3 3 4 4

Os pontos finais da Vertex AI não têm de alojar exatamente o mesmo modelo. Recomendamos que configure o modelo de AA do Spanner para ter um modelo principal, complexo e com utilização intensiva de computação como o primeiro ponto final. Os pontos finais de comutação por falha subsequentes podem apontar para modelos simplificados que exigem menos computação, são mais escaláveis e podem absorver picos de tráfego.

Limitações

  • A entrada e a saída do modelo têm de ser um objeto JSON.

Conformidade

O Assured Workloads não suporta a API Vertex AI Prediction. A ativação de uma restrição de utilização de recursos desativa a API Vertex AI e, efetivamente, a funcionalidade de integração do Vertex AI do Spanner.

Além disso, recomendamos que crie um perímetro dos VPC Service Controls para garantir que as suas bases de dados de produção não se podem ligar a pontos finais da Vertex AI nos seus projetos de não produção que podem não ter a configuração de conformidade adequada.