AlloyDB AI est une suite de fonctionnalités incluses avec AlloyDB pour PostgreSQL et AlloyDB Omni qui vous permet d'appliquer la puissance sémantique et prédictive des modèles de machine learning (ML) à vos données. Cette page présente les fonctions d'IA optimisées par le ML disponibles via AlloyDB.
Stocker, indexer et interroger des vecteurs
L'extension pgvector
PostgreSQL est personnalisée pour AlloyDB et est appelée vector
.
Il permet de stocker les embeddings générés dans une colonne vectorielle. L'extension est également compatible avec la fonctionnalité de quantification scalaire pour créer des index IVF
. Vous pouvez également créer un indice IVFFlat
ou HSNW
disponible avec pgvector
.
Pour en savoir plus sur le stockage de vecteurs, consultez Stocker des vecteurs.
En plus de l'extension vector
personnalisée, AlloyDB inclut l'extension alloydb_scann
qui implémente un index de voisin le plus proche hautement efficace basé sur l'algorithme SCANN.
Pour en savoir plus sur la création d'index et l'interrogation de vecteurs, consultez Créer des index et des vecteurs de requête.
Optimiser les performances de vos requêtes vectorielles
Vous pouvez ajuster vos index pour trouver un équilibre entre le nombre de requêtes par seconde (RPS) et le rappel avec vos requêtes. Pour en savoir plus sur l'optimisation de vos index, consultez Optimiser les performances des requêtes vectorielles.
Générer des embeddings et des prédictions de texte
AlloyDB AI étend la syntaxe PostgreSQL avec deux fonctions permettant d'interroger des modèles à l'aide de l'extension google_ml_integration
:
Appelez des prédictions pour appeler un modèle à l'aide de SQL dans une transaction.
Générez des embeddings pour qu'un LLM traduise les requêtes de texte en vecteurs numériques.
Vous pouvez utiliser la fonction
embedding()
pour interroger des modèles Vertex AI, tandis que la fonctiongoogle_ml.embedding()
peut être utilisée pour interroger des modèles Vertex AI, hébergés et tiers enregistrés.Vous pouvez ensuite appliquer ces représentations vectorielles continues en tant qu'entrées aux fonctions
pgvector
. Cela inclut des méthodes permettant de comparer et de trier des échantillons de texte en fonction de leur distance sémantique relative.
Utiliser des modèles dans le cloud avec Vertex AI
Vous pouvez configurer AlloyDB Omni pour qu'il fonctionne avec Vertex AI.
Vos applications bénéficient ainsi des avantages suivants:
Vos applications peuvent appeler des prédictions à l'aide de n'importe quel modèle stocké dans le Vertex AI Model Garden auquel elles ont accès.
Vos applications peuvent générer des représentations vectorielles continues à l'aide du LLM
textembedding-gecko
en anglais.