Stocker, indexer et interroger des vecteurs
L'extension pgvector
PostgreSQL est personnalisée pour AlloyDB et est appelée vector
.
Il permet de stocker les embeddings générés dans une colonne vectorielle. L'extension est également compatible avec la fonctionnalité de quantification scalaire pour créer des index IVF
. Vous pouvez également créer un index IVFFlat
ou HSNW
disponible avec le pgvector
de stock.
Pour en savoir plus sur le stockage de vecteurs, consultez Stocker des vecteurs.
En plus de l'extension vector
personnalisée, AlloyDB inclut l'extension alloydb_scann
qui implémente un index de plus proches voisins très efficace optimisé par l'algorithme ScaNN.
Pour en savoir plus sur la création d'index et l'interrogation de vecteurs, consultez Créer des index et interroger des vecteurs.
Ajuster les performances de vos requêtes vectorielles
Vous pouvez ajuster vos index pour trouver un équilibre entre les requêtes par seconde (RPS) et le rappel avec vos requêtes. Pour en savoir plus sur l'optimisation de vos index, consultez Optimiser les performances des requêtes vectorielles.
Générer des embeddings et des prédictions de texte
AlloyDB AI étend la syntaxe PostgreSQL avec deux fonctions permettant d'interroger des modèles à l'aide de l'extension google_ml_integration
:
Appelez des prédictions pour appeler un modèle à l'aide de SQL dans une transaction.
Générez des embeddings pour qu'un LLM traduise les requêtes de texte en vecteurs numériques.
Vous pouvez utiliser la fonction
embedding()
pour interroger les modèles Vertex AI, tandis que la fonctiongoogle_ml.embedding()
peut être utilisée pour interroger les modèles Vertex AI enregistrés, hébergés et tiers.Vous pouvez ensuite appliquer ces embeddings en tant qu'entrées aux fonctions
pgvector
. Cela inclut des méthodes permettant de comparer et de trier des échantillons de texte en fonction de leur distance sémantique relative.
Utiliser des modèles dans le cloud avec Vertex AI
Vous pouvez configurer AlloyDB Omni pour qu'il fonctionne avec Vertex AI.
Vos applications bénéficient ainsi des avantages suivants :
Vos applications peuvent appeler des prédictions à l'aide de n'importe quel modèle stocké dans Vertex AI Model Garden auquel elles ont accès.
Vos applications peuvent générer des embeddings à l'aide du LLM
text-embedding
modèles anglais.