Créer des applications d'IA générative à l'aide d'AlloyDB AI

Sélectionnez une version de la documentation :

AlloyDB AI est une suite de fonctionnalités incluses dans AlloyDB pour PostgreSQL et AlloyDB Omni qui vous permettent d'appliquer la puissance sémantique et prédictive des modèles de machine learning (ML) à vos données. Cette page présente les fonctions d'IA optimisées par le ML disponibles dans AlloyDB.

Stocker, indexer et interroger des vecteurs

L'extension pgvector PostgreSQL standard est personnalisée pour AlloyDB et est appelée vector. Elle permet de stocker les embeddings générés dans une colonne vectorielle. L'extension ajoute également la compatibilité avec la fonctionnalité de quantification scalaire pour la création d'index IVF. Vous pouvez également créer un index IVFFlat ou HSNW (disponibles avec pgvector standard).

Pour en savoir plus sur le stockage des vecteurs, consultez Stocker des vecteurs.

En plus de l'extension vector personnalisée, AlloyDB inclut l'extension alloydb_scann qui implémente un index des voisins les plus proches très efficace basé sur l'algorithme ScaNN.

Pour en savoir plus sur la création d'index et l'interrogation de vecteurs, consultez Créer des index et des vecteurs de requête.

Régler les performances de vos requêtes vectorielles

Vous pouvez régler vos index pour obtenir un équilibre entre les requêtes par seconde (RPS) et le rappel avec vos requêtes. Pour en savoir plus sur l'optimisation de vos index, consultez Optimiser les performances des requêtes vectorielles.

Générer des embeddings et des prédictions de texte

AlloyDB AI étend la syntaxe PostgreSQL avec deux fonctions permettant d'interroger des modèles à l'aide de l'extension google_ml_integration :

  • Appelez des prédictions pour appeler un modèle à l'aide de SQL dans une transaction.

  • Générez des embeddings pour qu'un LLM traduise les requêtes de texte en vecteurs numériques.

    Vous pouvez utiliser la fonction embedding() pour interroger les modèles Vertex AI, tandis que la fonction google_ml.embedding() peut être utilisée pour interroger les modèles Vertex AI enregistrés, hébergés et tiers.

    Vous pouvez ensuite appliquer ces embeddings en tant qu'entrées aux fonctions pgvector. Cela inclut des méthodes permettant de comparer et de trier des échantillons de texte en fonction de leur distance sémantique relative.

Utiliser des modèles dans le cloud avec Vertex AI

Vous pouvez configurer AlloyDB Omni pour qu'il fonctionne avec Vertex AI.

Vos applications bénéficient ainsi des avantages suivants :

Étapes suivantes