Almacena, indexa y consulta vectores
La extensión pgvector
de PostgreSQL estándar se personaliza para AlloyDB y se conoce como vector
.
Admite el almacenamiento de embeddings generados en una columna de vectores. La extensión también agrega compatibilidad con la función de cuantización escalar para crear índices IVF
. También puedes crear un índice IVFFlat
o un índice HSNW
que estén disponibles con pgvector
de stock.
Para obtener más información sobre el almacenamiento de vectores, consulta Almacena vectores.
Además de la extensión vector
personalizada, AlloyDB incluye la extensión alloydb_scann
que implementa un índice de vecinos más cercanos altamente eficiente potenciado por el algoritmo de ScaNN.
Para obtener más información sobre cómo crear índices y consultar vectores, consulta Crea índices y consulta vectores.
Ajusta el rendimiento de tus consultas vectoriales
Puedes ajustar tus índices para lograr un equilibrio entre las consultas por segundo (QPS) y la recuperación con tus búsquedas. Para obtener más información sobre cómo ajustar tus índices, consulta Ajusta el rendimiento de las búsquedas de vectores.
Genera incorporaciones y predicciones de texto
AlloyDB AI extiende la sintaxis de PostgreSQL con dos funciones para consultar modelos con la extensión google_ml_integration
:
Invoca predicciones para llamar a un modelo a través de SQL dentro de una transacción.
Genera embeddings para que un LLM traduzca instrucciones de texto en vectores numéricos.
Puedes usar la función
embedding()
para consultar modelos de Vertex AI, mientras que la funcióngoogle_ml.embedding()
se puede usar para consultar modelos registrados de Vertex AI, alojados y de terceros.Luego, puedes aplicar estas incorporaciones de vectores como entrada a las funciones
pgvector
. Esto incluye métodos para comparar y ordenar muestras de texto según su distancia semántica relativa.
Usa modelos en la nube con Vertex AI
Puedes configurar AlloyDB Omni para que funcione con Vertex AI.
Esto les brinda a tus aplicaciones los siguientes beneficios:
Tus aplicaciones pueden invocar predicciones con cualquier modelo almacenado en Model Garden de Vertex AI al que tengan acceso.
Tus aplicaciones pueden generar embeddings con el LLM de los modelos en inglés de
text-embedding
.