API Vertex AI pour créer des expériences de recherche et de RAG

Vertex AI propose une suite d'API pour vous aider à créer vos propres applications de génération augmentée de récupération (RAG, Retrieval Augmented Generation) ou à créer votre propre moteur de recherche. Cette page présente ces API.

Récupération et génération

La RAG est une méthodologie qui permet aux grands modèles de langage (LLM) de générer des réponses basées sur la source de données de votre choix. Il y a deux étapes en RAG:

  1. Récupération: il est fréquent d'obtenir rapidement les informations les plus pertinentes. problème de recherche. Avec le RAG, vous pouvez rapidement récupérer les faits importants pour générer une réponse.
  2. Génération : le LLM utilise les faits récupérés pour générer une réponse fondée.

Vertex AI offre des options pour ces deux étapes afin de s'adapter à divers besoins besoins.

Les options de récupération incluent Vertex AI, la création de votre propre récupérateur, LlamaIndex sur Vertex AI, utiliser votre propre récupérateur et la recherche Google. Les options de génération incluent l'API Grounded Generation et Gemini.

Récupération

Choisissez la méthode de récupération la mieux adaptée à vos besoins :

  • Vertex AI Search : Vertex AI Search est un moteur de récupération d'informations de qualité Google Search qui peut être un composant de toute application d'IA générative qui utilise vos données d'entreprise. Vertex AI Search fonctionne comme un moteur de recherche sémantique et par mots clés prêt à l'emploi pour le RAG. Il peut traiter différents types de documents et dispose de connecteurs pour divers systèmes sources, y compris BigQuery et de nombreux systèmes tiers.

    Pour en savoir plus, consultez Vertex AI Search :

  • Créez votre propre récupération:si vous souhaitez créer votre recherche sémantique, vous vous pouvez utiliser les API Vertex AI pour les composants de votre du système d'exploitation. Cette suite d'API offre des implémentations de haute qualité pour les la génération de représentations vectorielles continues, la recherche vectorielle et le classement sémantique. Utilisation de ces des API de niveau inférieur vous offrent une flexibilité totale pour la conception de votre récupérateur tout en proposant un délai de mise sur le marché accéléré et des en s'appuyant sur des API Vertex AI de niveau inférieur.

    Pour en savoir plus, consultez Créez votre propre génération augmentée de récupération.

  • Apporter une récupération existante:vous pouvez utiliser votre recherche existante comme retriever pour une génération de génération terre à terre. Vous pouvez également utiliser les API Vertex pour la RAG pour améliorer la qualité de votre recherche.

  • LlamaIndex sur Vertex AI:LlamaIndex sur Vertex AI permet aux développeurs familiarisés avec ce célèbre logiciel Open Source (OSS) pour créer des récupérateurs à utiliser en production et dans un environnement adapté aux entreprises.

    Pour en savoir plus, consultez LlamaIndex sur Vertex AI pour la RAG. présentation dans le cours "IA générative sur Vertex AI", dans la documentation Google Cloud.

  • Recherche Google : lorsque vous utilisez l'ancrage avec la recherche Google pour votre modèle Gemini, Gemini utilise la recherche Google et génère une sortie ancrée aux résultats de recherche pertinents. Cette méthode de récupération ne nécessite aucune gestion et vous mettez les connaissances du monde entier à la disposition de Gemini.

    Pour en savoir plus, consultez la section Fonder avec Recherche Google dans la documentation "IA générative sur Vertex AI".

Génération

Choisissez la méthode de génération la plus adaptée à vos besoins:

  • API Ground Generation (disponibilité générale avec liste d'autorisation) : utilisez la génération de données ancrées. API pour générer des réponses précises à la requête d'un utilisateur. Cette API utilise un modèle Gemini spécialisé et affiné. Elle constitue un moyen efficace de réduire les hallucinations et de fournir des réponses basées sur vos sources, des sources tierces ou la recherche Google, y compris des références à du contenu d'aide d'ancrage.

    Pour en savoir plus, consultez Générer des réponses fondées

  • Gemini:Gemini est le modèle le plus performant de Google et propose une expérience d'ancrage prête à l'emploi avec la recherche Google. Vous pouvez l'utiliser pour créer votre solution de génération terrestre entièrement personnalisée.

    Pour en savoir plus, consultez la section Se situer à la surface de la recherche Google dans dans la documentation "IA générative sur Vertex AI".

  • Model Garden:si vous souhaitez exercer un contrôle total sur le modèle de votre choix, vous pouvez utiliser n'importe quel modèle Vertex AI Model Garden pour la génération.

Créer votre propre génération augmentée de récupération

Le développement d'un système RAG personnalisé pour l'ancrage offre flexibilité et contrôle à chaque étape du processus. Vertex AI propose une suite d'API pour vous aider créer vos propres solutions de recherche. L'utilisation de ces API vous offre une flexibilité totale pour la conception de votre application RAG, tout en accélérant le délai de commercialisation et en offrant une qualité élevée en vous appuyant sur ces API Vertex AI de bas niveau.

Vertex AI propose des API pour le traitement et l'annotation, l'intégration, l'indexation et la récupération, le classement, la génération de base et la validation.

  • L'analyseur de mise en page pour Document AI. L'analyseur de mise en page Document AI transforme les documents dans différentes en représentations structurées, en créant des contenus comme des paragraphes, tableaux, listes et éléments structurels tels que les en-têtes, les en-têtes de page et pieds de page accessibles et créer des fragments contextuels qui facilitent la récupération d'informations dans toute une gamme d'applications d'IA générative et de découverte.

    Pour en savoir plus, consultez la section Analyseur de mise en page Document AI dans Documentation Document AI.

  • API Embeddings : les API d'embeddings Vertex AI vous permettent de créer des embeddings pour des entrées textuelles ou multimodales. Les représentations vectorielles continues sont des vecteurs de nombres à virgule flottante conçus pour capturer la signification de leur entrée. Vous pouvez utiliser les embeddings pour alimenter la recherche sémantique à l'aide de la recherche vectorielle.

    Pour en savoir plus, consultez les sections Embeddings textuels et Embeddings multimodaux dans la documentation sur l'IA générative sur Vertex AI.

  • Vector Search. Le moteur de récupération est un élément clé de votre ou application de recherche. Vertex AI Vector Search est un moteur de récupération qui peut effectuer des recherches à partir de milliards d'éléments sémantiquement similaires ou présentant des relations sémantiques à grande échelle, avec un nombre élevé de requêtes par seconde (RPS), un taux de rappel élevé, une faible latence et une rentabilité maximisée. Il peut effectuer des recherches sur des Il prend en charge la recherche par mots clés en représentations vectorielles continues creuses et la recherche hybride dans Version Preview publique.

    Pour en savoir plus, consultez la page Présentation de Vertex AI Vector Search dans la section dans la documentation de Vertex AI.

  • L'API de classement L'API de classement prend une liste de documents et reclasse ces documents en fonction de la pertinence des documents par rapport à une requête donnée. Par rapport aux représentations vectorielles continues qui ne tiennent compte que de la similarité sémantique d'un document et d'une requête, l'API de classement peut vous fournir un score plus précis sur la qualité de la réponse d'un document à une requête donnée.

    Pour en savoir plus, consultez la section Classer et reclasser des documents.

  • API de génération avec ancrage Utilisez le lien de génération de texte pour générer des réponses bien ancrées à la requête d’un utilisateur. Les sources d'ancrage peuvent être vos data stores Vertex AI Search, les données personnalisées que vous fournissez ou la recherche Google.

    Pour en savoir plus, consultez Générer des réponses ancrées.

  • API de vérification de l'ancrage L'API de vérification d'ancrage détermine le niveau d'ancrage d'un texte donné dans un un ensemble spécifique de textes de référence. L'API peut générer des citations pertinentes Le texte de référence pour indiquer où le texte donné est pris en charge par la des textes de référence. L'API peut être utilisée, entre autres, pour évaluer l'ancrage des réponses d'un système RAG. En outre, en tant que fonctionnalité expérimentale, l'API génère également des citations contradictoires qui indiquent les points de désaccord entre le texte donné et les textes de référence.

    Pour en savoir plus, consultez Vérifier l'ancrage.

Workflow: générer des réponses ancrées à partir de données non structurées

Voici un workflow qui explique comment intégrer les API RAG Vertex AI pour générer des réponses ancrées à partir de données non structurées.

  1. Importer vos documents non structurés, tels que des fichiers PDF, des fichiers HTML ou des images avec du texte dans un emplacement Cloud Storage.
  2. Traitez les documents importés à l'aide de l'analyseur de mise en page. L'analyseur de mise en page décompose les documents non structurés en segments et transforme le contenu non structuré en sa représentation structurée. L'analyseur de mise en page extrait également des annotations des segments.
  3. Créez des représentations vectorielles continues de texte pour les segments à l'aide de l'API d'embeddings de texte Vertex AI.
  4. Indexez et récupérez les embeddings de bloc à l'aide de Vector Search.
  5. Classer les fragments à l'aide de l'API de classement et déterminer les mieux classés ou fragments.
  6. Générer des réponses ancrées basées sur les blocs les mieux classés à l'aide de l'API de génération de base.

Si vous avez généré les réponses à l'aide d'un modèle de génération de réponses autre que le modèles Google, vous pouvez vérifier les bases de ces réponses. en utilisant la méthode de vérification d’ancrage.