Créer des applications d'IA générative à l'aide d'AlloyDB AI

Sélectionnez une version de la documentation :

AlloyDB AI est une suite de fonctionnalités incluses dans AlloyDB pour PostgreSQL et AlloyDB Omni. Elle vous permet d'appliquer la puissance sémantique et prédictive des modèles de machine learning (ML) à vos données. Cette page présente les fonctions d'IA optimisées par le ML disponibles dans AlloyDB.

Stocker, indexer et interroger des vecteurs

L'extension pgvector PostgreSQL est personnalisée pour AlloyDB et est appelée vector. Il permet de stocker les embeddings générés dans une colonne vectorielle. L'extension est également compatible avec la fonctionnalité de quantification scalaire pour créer des index IVF. Vous pouvez également créer un index IVFFlat ou HSNW disponible avec le pgvector de stock.

Pour en savoir plus sur le stockage de vecteurs, consultez Stocker des vecteurs.

En plus de l'extension vector personnalisée, AlloyDB inclut l'extension alloydb_scann qui implémente un index de plus proches voisins très efficace optimisé par l'algorithme ScaNN.

Pour en savoir plus sur la création d'index et l'interrogation de vecteurs, consultez Créer des index et interroger des vecteurs.

Ajuster les performances de vos requêtes vectorielles

Vous pouvez ajuster vos index pour trouver un équilibre entre les requêtes par seconde (RPS) et le rappel avec vos requêtes. Pour en savoir plus sur l'optimisation de vos index, consultez Optimiser les performances des requêtes vectorielles.

Générer des embeddings et des prédictions de texte

AlloyDB AI étend la syntaxe PostgreSQL avec deux fonctions permettant d'interroger des modèles à l'aide de l'extension google_ml_integration :

  • Appelez des prédictions pour appeler un modèle à l'aide de SQL dans une transaction.

  • Générez des embeddings pour qu'un LLM traduise les requêtes de texte en vecteurs numériques.

    Vous pouvez utiliser la fonction embedding() pour interroger les modèles Vertex AI, tandis que la fonction google_ml.embedding() peut être utilisée pour interroger les modèles Vertex AI enregistrés, hébergés et tiers.

    Vous pouvez ensuite appliquer ces embeddings en tant qu'entrées aux fonctions pgvector. Cela inclut des méthodes permettant de comparer et de trier des échantillons de texte en fonction de leur distance sémantique relative.

Utiliser des modèles dans le cloud avec Vertex AI

Vous pouvez configurer AlloyDB Omni pour qu'il fonctionne avec Vertex AI.

Vos applications bénéficient ainsi des avantages suivants :

Étapes suivantes