O AlloyDB AI é um conjunto de recursos incluídos no AlloyDB para PostgreSQL e no AlloyDB Omni que permitem aplicar o poder semântico e preditivo dos modelos de machine learning (ML) aos seus dados. Esta página oferece uma visão geral das funções de IA com tecnologia de ML disponíveis no AlloyDB.
Armazenar, indexar e consultar vetores
A extensão padrão pgvector
PostgreSQL
é personalizada para o AlloyDB e é chamada de vector
.
Ele oferece suporte para o armazenamento de embeddings gerados em uma coluna de vetor. A extensão também
adiciona suporte ao recurso de quantização escalar para criar índices IVF
. Também
é possível criar um índice IVFFlat
ou HSNW
que esteja disponível com o
pgvector
de ações.
Para mais informações sobre o armazenamento de vetores, consulte Armazenar vetores.
Além da extensão vector
personalizada, o AlloyDB
inclui a extensão alloydb_scann
, que implementa um índice de vizinho mais próximo
altamente eficiente, com o algoritmo
ScaNN.
Para mais informações sobre como criar índices e consultar vetores, consulte Criar índices e vetores de consulta.
Ajustar a performance da consulta de vetor
É possível ajustar os índices para equilibrar as consultas por segundo (QPS) e a recuperação com as consultas. Para mais informações sobre como ajustar seus índices, consulte Ajustar o desempenho da consulta de vetor.
Gerar embeddings e previsões de texto
O AlloyDB AI estende a sintaxe do PostgreSQL com duas funções para
consultar modelos usando a extensão google_ml_integration
:
Invocar previsões para chamar um modelo usando SQL em uma transação.
Gerar embeddings para que um LLM traduza comandos de texto em vetores numéricos.
É possível usar a função
embedding()
para consultar modelos da Vertex AI, enquanto a funçãogoogle_ml.embedding()
pode ser usada para consultar modelos registrados da Vertex AI, hospedados e de terceiros.Em seguida, é possível aplicar esses embeddings de vetores como entrada para funções
pgvector
. Isso inclui métodos para comparar e classificar amostras de texto de acordo com a distância semântica relativa.
Usar modelos na nuvem com a Vertex AI
É possível configurar o AlloyDB para funcionar com a Vertex AI.
Isso oferece aos seus aplicativos os seguintes benefícios:
Seus aplicativos podem invocar previsões usando qualquer modelo armazenado no Model Garden da Vertex AI a que eles tenham acesso.
Seus apps podem gerar embeddings usando o LLM dos modelos de inglês
text-embedding-005
.