Almacenar, indexar y consultar vectores
La extensión pgvector
PostgreSQL
extension
se ha personalizado para AlloyDB y se denomina vector
.
Permite almacenar las inserciones generadas en una columna de vector. La extensión también añade compatibilidad con la función de cuantización escalar para crear índices IVF
. También puedes crear un índice IVFFlat
o HSNW
que estén disponibles con acciones pgvector
.
Para obtener más información sobre cómo almacenar vectores, consulta Almacenar vectores.
Además de la extensión vector
personalizada, AlloyDB incluye la extensión alloydb_scann
, que implementa un índice de vecinos más cercanos altamente eficiente basado en el algoritmo ScaNN.
Para obtener más información sobre cómo crear índices y consultar vectores, consulta Crear índices y consultar vectores.
Ajustar el rendimiento de las consultas vectoriales
Puedes ajustar tus índices para conseguir un equilibrio entre las consultas por segundo y la recuperación de tus consultas. Para obtener más información sobre cómo optimizar tus índices, consulta Optimizar el rendimiento de las consultas vectoriales.
Generar incrustaciones y predicciones de texto
AlloyDB AI amplía la sintaxis de PostgreSQL con dos funciones para consultar modelos mediante la extensión google_ml_integration
:
Invoca predicciones para llamar a un modelo mediante SQL en una transacción.
Genera incrustaciones para que un LLM traduzca las peticiones de texto a vectores numéricos.
Puedes usar la
embedding()
función para consultar modelos de Vertex AI, mientras que lagoogle_ml.embedding()
función se puede usar para consultar modelos registrados de Vertex AI, alojados y de terceros.Después, puedes aplicar estas incrustaciones de vectores como entrada a las funciones
pgvector
. Esto incluye métodos para comparar y ordenar muestras de texto según su distancia semántica relativa.
Usar modelos en la nube con Vertex AI
Puedes configurar AlloyDB Omni para que funcione con Vertex AI.
Esto ofrece las siguientes ventajas a tus aplicaciones:
Tus aplicaciones pueden invocar predicciones usando cualquier modelo almacenado en Vertex AI Model Garden al que tengan acceso.
Tus aplicaciones pueden generar embeddings con los modelos LLM en inglés
text-embedding
.