API Vertex AI pour créer des expériences de recherche et de RAG
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Vertex AI propose une suite d'API pour vous aider à créer des applications de génération augmentée par récupération (RAG) ou un moteur de recherche. Cette page présente ces API.
Récupération et génération
La génération augmentée par récupération (RAG) est une méthodologie qui permet aux grands modèles de langage (LLM) de générer des réponses ancrées dans la source de données de votre choix. Le processus RAG comporte deux étapes :
Récupération : obtenir rapidement les faits les plus pertinents peut être un problème de recherche courant. Avec le RAG, vous pouvez récupérer rapidement les faits importants pour générer une réponse.
Génération : le LLM utilise les faits récupérés pour générer une réponse ancrée.
Vertex AI propose des options pour les deux étapes afin de répondre aux besoins de différents développeurs.
Récupération
Choisissez la méthode de récupération la mieux adaptée à vos besoins :
Vertex AI Search : Vertex AI Search est un moteur de récupération d'informations de qualité Google Search qui peut être un composant de toute application d'IA générative utilisant vos données d'entreprise.
Vertex AI Search fonctionne comme un moteur de recherche sémantique et par mots clés prêt à l'emploi pour RAG. Il peut traiter différents types de documents et dispose de connecteurs vers divers systèmes sources, y compris BigQuery et de nombreux systèmes tiers.
Créez votre propre système de récupération : si vous souhaitez créer votre recherche sémantique, vous pouvez vous appuyer sur les API Vertex AI pour les composants de votre système RAG personnalisé. Cette suite d'API fournit des implémentations de haute qualité pour l'analyse de documents, la génération d'embeddings, la recherche vectorielle et le classement sémantique. L'utilisation de ces API de niveau inférieur vous offre une flexibilité totale dans la conception de votre récupérateur, tout en vous permettant de réduire les délais de commercialisation et d'obtenir une qualité élevée en vous appuyant sur les API Vertex AI de niveau inférieur.
Utiliser une récupération existante : vous pouvez utiliser votre recherche existante comme récupérateur pour la génération ancrée.
Vous pouvez également utiliser les API Vertex pour le RAG afin d'améliorer la qualité de votre recherche existante. Pour en savoir plus, consultez la Présentation de l'ancrage.
Vertex AI RAG Engine : Vertex AI RAG Engine fournit un environnement d'exécution entièrement géré pour l'orchestration RAG, ce qui permet aux développeurs de créer des RAG à utiliser dans des contextes de production et d'entreprise.
Recherche Google : lorsque vous utilisez l'ancrage avec la recherche Google pour votre modèle Gemini, Gemini utilise la recherche Google et génère une sortie ancrée sur les résultats de recherche pertinents. Cette méthode de récupération ne nécessite pas de gestion et vous permet d'accéder aux connaissances mondiales disponibles pour Gemini.
Choisissez la méthode de génération qui correspond le mieux à vos besoins :
Ancrer avec vos données : générez des réponses bien ancrées à la requête d'un utilisateur. L'API de génération ancrée utilise des modèles Gemini spécialisés et affinés. Elle permet de réduire efficacement les hallucinations et de fournir des réponses ancrées dans vos sources ou des sources tierces, y compris des références au contenu d'aide sur l'ancrage.
Vous pouvez également ancrer les réponses dans vos données Vertex AI Search à l'aide de l'IA générative sur Vertex AI. Pour en savoir plus, consultez Ancrer avec vos données.
Ancrer avec la recherche Google : Gemini est le modèle le plus performant de Google et offre un ancrage prêt à l'emploi avec la recherche Google. Vous pouvez l'utiliser pour créer votre propre solution de génération ancrée entièrement personnalisée.
Model Garden : si vous souhaitez avoir un contrôle total et choisir le modèle de votre choix, vous pouvez utiliser n'importe quel modèle de Vertex AI Model Garden pour la génération.
Créer votre propre génération augmentée par récupération
Le développement d'un système RAG personnalisé pour l'ancrage offre flexibilité et contrôle à chaque étape du processus. Vertex AI propose une suite d'API pour vous aider à créer vos propres solutions de recherche. L'utilisation de ces API vous offre une flexibilité totale dans la conception de votre application RAG, tout en vous permettant de réduire les délais de commercialisation et d'obtenir une qualité élevée en vous appuyant sur ces API Vertex AI de niveau inférieur.
Analyseur de mise en page Document AI
L'analyseur de mise en page Document AI transforme les documents de différents formats en représentations structurées, ce qui rend le contenu tel que les paragraphes, les tableaux, les listes et les éléments structurels tels que les titres, les en-têtes et les pieds de page accessibles. Il crée également des segments contextuels qui facilitent la récupération d'informations dans une gamme d'applications d'IA générative et de découverte.
API Embeddings : les API Vertex AI Embeddings vous permettent de créer des embeddings pour des entrées textuelles ou multimodales. Les embeddings sont des vecteurs de nombres à virgule flottante conçus pour capturer la signification de leur entrée. Vous pouvez utiliser les embeddings pour alimenter la recherche sémantique à l'aide de Vector Search.
Vector Search Le moteur de récupération est un élément clé de votre application RAG ou de recherche. Vertex AI Vector Search est un moteur de récupération qui peut effectuer des recherches dans des milliards d'éléments sémantiquement similaires ou présentant des relations sémantiques à grande échelle, avec un nombre élevé de requêtes par seconde (RPS), un taux de rappel élevé, une faible latence et une meilleure rentabilité. Elle peut effectuer des recherches sur des embeddings denses et est compatible avec la recherche par mot clé d'embeddings creux et la recherche hybride en aperçu public.
L'API Ranking
L'API Ranking prend en entrée une liste de documents et les reclasse en fonction de leur pertinence par rapport à une requête donnée. Par rapport aux embeddings qui examinent uniquement la similarité sémantique entre un document et une requête, l'API Ranking peut vous fournir un score plus précis sur la façon dont un document répond à une requête donnée.
L'API de génération ancrée. Utilisez l'API de génération ancrée pour générer des réponses bien ancrées à la requête d'un utilisateur. Les sources d'ancrage peuvent être vos datastores Vertex AI Search, des données personnalisées que vous fournissez ou la recherche Google.
L'API de génération de contenu. Utilisez l'API Generate Content pour générer des réponses bien ancrées à la requête d'un utilisateur. Les sources d'ancrage peuvent être vos data stores Vertex AI Search ou la recherche Google.
API Check Grounding
L'API Check Grounding détermine le degré d'ancrage d'un texte donné dans un ensemble de textes de référence donné. L'API peut générer des citations à partir du texte de référence pour indiquer où le texte donné est étayé par les textes de référence. L'API peut, entre autres, être utilisée pour évaluer l'ancrage des réponses d'un système RAG. De plus, en tant que fonctionnalité expérimentale, l'API génère également des citations contradictoires qui montrent les points de désaccord entre le texte donné et les textes de référence.
Workflow : générer des réponses ancrées à partir de données non structurées
Voici un workflow qui explique comment intégrer les API RAG Vertex AI pour générer des réponses ancrées à partir de données non structurées.
Importez vos documents non structurés, tels que des fichiers PDF, des fichiers HTML ou des images avec du texte, dans un emplacement Cloud Storage.
Traitez les documents importés à l'aide de l'analyseur de mise en page.
L'analyseur de mise en page décompose les documents non structurés en blocs et transforme le contenu non structuré en sa représentation structurée. L'analyseur de mise en page extrait également les annotations des blocs.
Si vous avez généré les réponses à l'aide d'un modèle de génération de réponses autre que les modèles Google, vous pouvez vérifier l'ancrage de ces réponses à l'aide de la méthode check grounding.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/05 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/05 (UTC)."],[[["\u003cp\u003eVertex AI provides APIs for building Retrieval-Augmented Generation (RAG) applications and search engines, supporting both retrieval and generation stages.\u003c/p\u003e\n"],["\u003cp\u003eFor retrieval, options include Vertex AI Search, building your own using Vertex AI APIs, using an existing search engine, Vertex AI RAG Engine, or leveraging Google Search for Gemini models.\u003c/p\u003e\n"],["\u003cp\u003eFor generation, options include the Grounded Generation API, using Gemini with built-in Google Search grounding, or using models from the Vertex AI Model Garden for full customization.\u003c/p\u003e\n"],["\u003cp\u003eVertex AI's suite of APIs includes the Document AI Layout Parser, Embeddings API, Vector Search, and Ranking API, enabling users to create custom RAG systems with flexibility and control.\u003c/p\u003e\n"],["\u003cp\u003eThe Vertex AI workflow for generating grounded responses from unstructured data involves importing documents, processing with the layout parser, creating text embeddings, indexing with Vector Search, ranking chunks, and generating grounded answers.\u003c/p\u003e\n"]]],[],null,["# Vertex AI APIs for building search and RAG experiences\n\nVertex AI offers a suite of APIs to help you build Retrieval-Augmented\nGeneration (RAG) applications or a search engine. This page introduces those\nAPIs.\n\nRetrieval and generation\n------------------------\n\nRAG is a methodology that enables Large Language Models (LLMs) to generate\nresponses that are grounded to your data source of choice. There are two stages\nin RAG:\n\n1. **Retrieval**: Getting the most relevant facts quickly can be a common search problem. With RAG, you can quickly retrieve the facts that are important to generate an answer.\n2. **Generation:** The retrieved facts are used by the LLM to generate a grounded response.\n\nVertex AI offers options for both stages to match a variety of\ndeveloper needs.\n\nRetrieval\n---------\n\nChoose the best retrieval method for your needs:\n\n- **Vertex AI Search:** Vertex AI Search is a\n Google Search-quality information retrieval engine that can be a\n component of any generative AI application that uses your enterprise data.\n Vertex AI Search works as an out-of-the-box semantic \\& keyword\n search engine for RAG with the ability to process a variety of document\n types and with connectors to a variety of source systems including\n BigQuery and many third party systems.\n\n For more information, see\n [Vertex AI Search](/enterprise-search).\n- **Build your own retrieval:** If you want to build your semantic search, you\n can rely on Vertex AI APIs for components of your custom RAG\n system. This suite of APIs provide high-quality implementations for document\n parsing, embedding generation, vector search, and semantic ranking. Using these\n lower-level APIs gives you full flexibility on the design of your retriever\n while at the same time offering accelerated time to market and high quality\n by relying on lower-level Vertex AI APIs.\n\n For more information, see\n [Build your own Retrieval Augmented Generation](#build-rag).\n- **Bring an existing retrieval** : You can use your existing search as a\n retriever for [grounded generation](/generative-ai-app-builder/docs/grounded-gen).\n You can also use the Vertex APIs for RAG\n to upgrade your existing search to higher quality. For more information, see\n [Grounding overview](/vertex-ai/generative-ai/docs/grounding/overview).\n\n- **Vertex AI RAG Engine**: Vertex AI RAG Engine\n provides a fully-managed runtime for RAG orchestration, which lets\n developers build RAG for use in production and enterprise-ready contexts.\n\n For more information, see [Vertex AI RAG Engine\n overview](/vertex-ai/generative-ai/docs/rag-overview) in the Generative AI\n on Vertex AI documentation.\n- **Google Search**: When you use Grounding with\n Google Search for your Gemini model, then Gemini\n uses Google Search and generates output that is grounded to the\n relevant search results. This retrieval method doesn't require management\n and you get the world's knowledge available to Gemini.\n\n For more information, see [Grounding with\n Google Search](/vertex-ai/generative-ai/docs/multimodal/ground-gemini)\n in the Generative AI on Vertex AI documentation.\n\nGeneration\n----------\n\nChoose the best generation method for your needs:\n\n- **Ground with your data**:\n Generate well-grounded answers to a user's query. The grounded generation\n API uses specialized, fine-tuned Gemini models and is an effective\n way to reduce hallucinations and provide responses grounded to your sources\n or third-party sources including references to grounding support content.\n\n For more information, see\n [Generate grounded answers with RAG](/generative-ai-app-builder/docs/grounded-gen).\n\n You can also ground responses to your Vertex AI Search data using\n Generative AI on Vertex AI. For more information, see\n [Ground with your data](/vertex-ai/generative-ai/docs/multimodal/ground-with-your-data).\n- **Ground with Google Search:** Gemini is Google's most capable\n model and offers out-of-the-box grounding with Google Search. You\n can use it to build your fully-customized grounded generation solution.\n\n For more information, see [Grounding with Google Search](/vertex-ai/generative-ai/docs/multimodal/ground-gemini) in\n the Generative AI on Vertex AI documentation.\n- **Model Garden:** If you want full control and the model of your choice,\n you can use any of the models in\n [Vertex AI Model Garden](/model-garden) for generation.\n\nBuild your own Retrieval Augmented Generation\n---------------------------------------------\n\nDeveloping a custom RAG system for grounding offers flexibility and control at\nevery step of the process. Vertex AI offers a suite of APIs to help you\ncreate your own search solutions. Using those APIs gives you full flexibility on\nthe design of your RAG application while at the same time offering accelerated\ntime to market and high quality by relying on these lower-level\nVertex AI APIs.\n\n- **The Document AI Layout Parser.**\n The Document AI Layout Parser transforms documents in various\n formats into structured representations, making content like paragraphs,\n tables, lists, and structural elements like headings, page headers, and\n footers accessible, and creating context-aware chunks that facilitate\n information retrieval in a range of generative AI and discovery apps.\n\n For more information, see [Document AI Layout Parser](/document-ai/docs/layout-parse-chunk) in the\n *Document AI* documentation.\n- **Embeddings API:** The Vertex AI embeddings APIs let you create\n embeddings for text or multimodal inputs. Embeddings are vectors of\n floating point numbers that are designed to capture the meaning of their\n input. You can use the embeddings to power semantic search using Vector\n search.\n\n For more information, see [Text embeddings](/vertex-ai/generative-ai/docs/embeddings/get-text-embeddings) and\n [Multimodal embeddings](/vertex-ai/generative-ai/docs/embeddings/get-multimodal-embeddings) in the Generative AI on\n Vertex AI documentation.\n- **Vector Search.** The retrieval engine is a key part of your RAG\n or search application. Vertex AI Vector Search is a\n retrieval engine that can search from billions of semantically similar or\n semantically related items at scale, with high queries per second (QPS), high\n recall, low latency, and cost efficiency. It can search over dense\n embeddings, and supports sparse embedding keyword search and hybrid search in\n Public preview.\n\n For more information, see: [Overview of Vertex AI\n Vector Search](/vertex-ai/docs/vector-search/overview) in the\n Vertex AI documentation.\n- **The ranking API.**\n The ranking API takes in a list of documents and reranks those documents\n based on how relevant the documents are to a given query. Compared to\n embeddings that look purely at the semantic similarity of a document and a\n query, the ranking API can give you a more precise score for how well a\n document answers a given query.\n\n For more information, see\n [Improve search and RAG quality with ranking API](/generative-ai-app-builder/docs/ranking).\n- **The grounded generation API.** Use the grounded\n generation API to generate\n well-grounded answers to a user's prompt. The grounding sources can be your\n Vertex AI Search data stores, custom data that you provide, or\n Google Search.\n\n For more information, see [Generate grounded answers](/generative-ai-app-builder/docs/grounded-gen).\n- **The generate content API.** Use the generate content API to generate\n well-grounded answers to a user's prompt. The grounding sources can be your\n Vertex AI Search data stores or Google Search.\n\n For more information, see\n [Ground with Google Search](/vertex-ai/generative-ai/docs/multimodal/ground-with-google-search) or\n [Ground with your data](/vertex-ai/generative-ai/docs/multimodal/ground-with-your-data).\n- **The check grounding API.**\n The check grounding API determines how grounded a given piece of text is in a\n given set of reference texts. The API can generate supporting citations from\n the reference text to indicate where the given text is supported by the\n reference texts. Among other things, the API can be used to assess the\n grounded-ness of responses from a RAG systems. Additionally, as an\n experimental feature, the API also generates contradicting citations that\n show where the given text and reference texts disagree.\n\n For more information, see [Check grounding](/generative-ai-app-builder/docs/check-grounding).\n\nWorkflow: Generate grounded responses from unstructured data\n------------------------------------------------------------\n\nHere's a workflow that outlines how to integrate the Vertex AI RAG APIs\nto generate grounded responses from unstructured data.\n\n1. Import your unstructured documents, such as PDF files, HTML files, or images with text, into a Cloud Storage location.\n2. Process the imported documents using the [layout parser](/document-ai/docs/layout-parse-chunk). The layout parser breaks down the unstructured documents into chunks and transforms the unstructured content into its structured representation. The layout parser also extracts annotations from the chunks.\n3. [Create text embeddings](/vertex-ai/generative-ai/docs/embeddings/get-text-embeddings) for chunks using Vertex AI text embeddings API.\n4. [Index and retrieve](/vertex-ai/docs/vector-search/create-manage-index) the chunk embeddings using Vector Search.\n5. [Rank the chunks](/generative-ai-app-builder/docs/ranking) using the ranking API and determine the top-ranked chunks.\n6. Generate grounded answers based on the top-ranked chunks using the [grounded generation API](/generative-ai-app-builder/docs/grounded-gen) or using the [generate content API](/vertex-ai/generative-ai/docs/multimodal/ground-with-your-data).\n\nIf you generated the answers using an answer generation model other than the\nGoogle models, you can [check the grounding](/generative-ai-app-builder/docs/check-grounding) of these answers\nusing the check grounding method."]]