Auf dieser Seite wird erläutert, wie Sie Antworten anhand Ihrer Daten aus Vertex AI Search fundieren können.
Gemini auf Basis Ihrer Daten fundieren
Wenn Sie die Retrieval-Augmented Generation (RAG) verwenden möchten, verbinden Sie Ihr Modell mit Ihren Websitedaten oder Dokumentensätzen und verwenden Sie dann die Fundierung mit Vertex AI Search.
Die Fundierung auf Ihren Daten unterstützt maximal zehn Vertex AI Search-Datenquellen und kann mit der Fundierung mit der Google Suche kombiniert werden.
Unterstützte Modelle
In diesem Abschnitt sind die Modelle aufgeführt, die die Fundierung mit Ihren Daten unterstützen.
- Gemini 2.5 Flash mit nativem Audio der Live API
Vorabversion - Gemini 2.0 Flash mit Live API
Vorabversion - Gemini 2.5 Pro
Vorabversion - Gemini 2.5 Flash
Vorabversion - Gemini 2.0 Flash
Vorbereitung
Bevor Sie die Modellausgabe auf Ihren Daten fundieren können, müssen Sie Folgendes tun:
Rufen Sie in der Google Cloud Console die Seite IAM auf und suchen Sie nach der Berechtigung
discoveryengine.servingConfigs.search
. Sie ist für die Funktion des Schutzes vor Überspannung erforderlich.Aktivieren Sie KI-Anwendungen und die API.
Erstellen Sie eine Datenquelle und eine Anwendung für KI-Anwendungen.
Weitere Informationen finden Sie unter Einführung in Vertex AI Search.
KI-Anwendungen aktivieren
Rufen Sie in der Google Cloud Console die Seite KI-Anwendungen auf.
Lesen und akzeptieren Sie die Nutzungsbedingungen und klicken Sie anschließend auf Fortfahren und API aktivieren.
KI-Anwendungen sind am Standort global
oder in den Multiregionen eu
und us
verfügbar. Weitere Informationen finden Sie unter Standorte von KI-Anwendungen.
Datenspeicher in KI-Anwendungen erstellen
Wenn Sie einen Datenspeicher in KI-Anwendungen erstellen, können Sie ihn mit Websitedaten oder Dokumenten fundieren.
Website
Öffnen Sie in der Google Cloud Console die Seite Datenspeicher erstellen.
Klicken Sie im Feld Websiteinhalte auf Auswählen.
Der Bereich Websites für den Datenspeicher angeben wird angezeigt.Wenn das Kästchen Erweiterte Websiteindexierung nicht angeklickt ist, klicken Sie darauf, um die Option zu aktivieren.
Der Bereich Datenspeicher konfigurieren wird angezeigt.Führen Sie im Abschnitt URL-Muster angeben, die indexiert werden sollen folgende Schritte aus:
- Fügen Sie URLs für Einzuschließende Websites hinzu.
- Optional: Fügen Sie URLs für Auszuschließende Websites hinzu.
Klicken Sie auf Weiter.
Im Bereich Datenspeicher konfigurieren
- Wählen Sie einen Wert aus der Liste Speicherort des Datenspeichers aus.
- Geben Sie in das Feld Name des Datenspeichers einen Namen ein. Die ID wird generiert. Verwenden Sie diese ID, wenn Sie Ihre fundierten Antworten mit Ihrem Datenspeicher generieren. Weitere Informationen finden Sie unter Begründete Antworten mit Ihrem Datenspeicher generieren.
- Klicken Sie auf Erstellen.
Dokumente
Öffnen Sie in der Google Cloud Console die Seite Datenspeicher erstellen.
Klicken Sie im Feld Cloud Storage auf Auswählen.
Der Bereich Daten aus Cloud Storage importieren wird angezeigt.Wählen Sie im Abschnitt Unstrukturierte Dokumente (PDF, HTML, TXT usw.) die Option Unstrukturierte Dokumente (PDF, HTML, TXT usw.) aus.
Wählen Sie eine Option für die Synchronisierungshäufigkeit aus.
Wählen Sie eine Option unter Ordner oder Datei für Import auswählen aus und geben Sie den Pfad in das Feld ein.
Klicken Sie auf Weiter.
Der Bereich Datenspeicher konfigurieren wird angezeigt.Im Bereich Datenspeicher konfigurieren
- Wählen Sie einen Wert aus der Liste Speicherort des Datenspeichers aus.
- Geben Sie in das Feld Name des Datenspeichers einen Namen ein. Die ID wird generiert.
- Wenn Sie Optionen für die Textanalyse und das Segmentieren Ihrer Dokumente auswählen möchten, maximieren Sie den Bereich Dokumentverarbeitungsoptionen. Weitere Informationen zu verschiedenen Parsern finden Sie unter Dokumente parsen.
- Klicken Sie auf Erstellen.
Klicken Sie auf Erstellen.
Fundierte Antworten mit Ihrem Datenspeicher generieren
Folgen Sie der nachstehenden Anleitung, um ein Modell mit Ihren eigenen Daten zu fundieren. Es werden maximal 10 Datenspeicher unterstützt.
Wenn Sie Ihre Datenspeicher-ID nicht kennen, gehen Sie so vor:
Rufen Sie in der Google Cloud Console die Seite KI-Anwendungen auf und klicken Sie im Navigationsmenü auf Datenspeicher.
Klicken Sie auf den Namen des Datenspeichers.
Rufen Sie auf der Datenseite Ihres Datenspeichers die Datenspeicher-ID ab.
Console
Führen Sie die folgenden Schritte aus, um Ihre Modellausgabe in KI-Anwendungen zu fundieren. Dazu nutzen Sie Vertex AI Studio in derGoogle Cloud Console:
- Rufen Sie in der Google Cloud Console die Seite Vertex AI Studio Freeform auf.
- Klicken Sie auf die Ein/Aus-Schaltfläche Fundierung: Ihre Daten, um die Fundierung zu aktivieren.
- Klicken Sie auf Anpassen.
- Wählen Sie Vertex AI Search als Quelle aus.
- Ersetzen Sie in diesem Pfadformat die Projekt-ID und die ID des Datenspeichers:
projects/project_id/locations/global/collections/default_collection/dataStores/data_store_id.
- Klicken Sie auf Speichern.
- Geben Sie Ihren Prompt in das Textfeld ein und klicken Sie auf Senden.
Ihre Prompt-Antworten basieren auf KI-Anwendungen.
Python
Bevor Sie dieses Beispiel anwenden, folgen Sie den Python-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
REST
Senden Sie zum Testen eines Text-Prompts mit der Vertex AI API eine POST-Anfrage an den Endpunkt des Publisher-Modells.
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- LOCATION: Die Region, in der die Anfrage verarbeitet werden soll.
- PROJECT_ID: Ihre Projekt-ID.
- MODEL_ID: Die Modell-ID des multimodalen Modells.
- TEXT: Die Textanleitung, die in den Prompt eingefügt werden soll.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent
JSON-Text anfordern:
{ "contents": [{ "role": "user", "parts": [{ "text": "TEXT" }] }], "tools": [{ "retrieval": { "vertexAiSearch": { "datastore": projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID } } }], "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID" }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "candidates": [ { "content": { "role": "model", "parts": [ { "text": "You can make an appointment on the website https://dmv.gov/" } ] }, "finishReason": "STOP", "safetyRatings": [ "..." ], "groundingMetadata": { "retrievalQueries": [ "How to make appointment to renew driving license?" ], "groundingChunks": [ { "retrievedContext": { "uri": "https://vertexaisearch.cloud.google.com/grounding-api-redirect/AXiHM.....QTN92V5ePQ==", "title": "dmv" } } ], "groundingSupport": [ { "segment": { "startIndex": 25, "endIndex": 147 }, "segment_text": "ipsum lorem ...", "supportChunkIndices": [1, 2], "confidenceScore": [0.9541752, 0.97726375] }, { "segment": { "startIndex": 294, "endIndex": 439 }, "segment_text": "ipsum lorem ...", "supportChunkIndices": [1], "confidenceScore": [0.9541752, 0.9325467] } ] } } ], "usageMetadata": { "..." } }
Ihre Antwort verstehen
Die Antwort von beiden APIs enthält den vom LLM generierten Text, der als Kandidat bezeichnet wird. Wenn Ihr Modell-Prompt erfolgreich in Ihrer Elasticsearch-Datenquelle fundiert wird, enthalten die Antworten Metadaten zur Fundierung, die die Teile der Antwort identifizieren, die aus Ihren Elasticsearch-Daten abgeleitet wurden. Es gibt jedoch mehrere Gründe, warum diese Metadaten möglicherweise nicht bereitgestellt werden und die Prompt-Antwort nicht fundiert wird. Dazu gehören eine geringe Quellenrelevanz oder unvollständige Informationen in der Antwort des Modells.
Im Folgenden finden Sie eine Aufschlüsselung der Ausgabedaten:
- Rolle: Gibt den Absender der fundierten Antwort an. Da die Antwort immer begründeten Text enthält, ist die Rolle immer
model
. - Text: Die fundierte Antwort, die vom LLM generiert wurde.
- Erdungsmetadaten: Informationen zur Erdungsquelle, die die folgenden Elemente enthält:
- Erläuternde Textblöcke: Eine Liste von Ergebnissen aus Ihrem Elasticsearch-Index, die die Antwort unterstützen.
- Belege: Informationen zu einer bestimmten Behauptung in der Antwort, die für die Anzeige von Zitaten verwendet werden können:
- Segment: Der Teil der Antwort des Modells, der durch einen Chunk mit stützenden Informationen belegt wird.
- Index des Erdungs-Chunks: Der Index der Erdungs-Chunks in der Liste der Erdungs-Chunks, der diesem Anspruch entspricht.
- Konfidenzwerte: Eine Zahl zwischen 0 und 1, die angibt, wie fundiert die Behauptung in den bereitgestellten Begründungselementen ist. Nicht verfügbar für Gemini 2.5 und höher.
Nächste Schritte
- Informationen zum Senden von Anfragen für Chat-Prompts finden Sie unter Mehrere Antworten in einem Chat.
- Weitere Informationen zu Best Practices für verantwortungsbewusste KI und den Sicherheitsfiltern von Vertex AI finden Sie unter Best Practices für Sicherheit.