Antworten für Gemini-Modelle fundieren

Fundierung mit der Google Suche

Verwenden Sie Fundierung mit der Google Suche, wenn Sie das Modell mit Weltwissen, einer Vielzahl von Themen oder aktuellen Informationen im Internet verbinden möchten.

Wenn Sie diese Funktion verwenden, muss ein Einstiegspunkt für die Google Suche angezeigt werden. Weitere Informationen zu den Anforderungen finden Sie unter Einstiegspunkt für die Google Suche.

Weitere Informationen zur Modellfundierung in Vertex Generative AI finden Sie im Fundierungs-Überblick.

Unterstützte Modelle

Die folgenden Modelle unterstützen Grounding:

  • Gemini 1.0 Pro nur mit Texteingabe

Unterstützte Sprachen

  • Englisch (en)
  • Spanisch (es)
  • Japanisch (ja)

Wenn Sie die Fundierung mit der Google Suche verwenden, wird empfohlen, eine Temperatur von 0.0 zu verwenden. Weitere Informationen zum Festlegen dieser Konfiguration finden Sie im Gemini API-Anfragetext in der Modellreferenz.

REST

Ersetzen Sie diese Werte in den folgenden Anfragedaten:

  • LOCATION: Die Region, in der die Anfrage verarbeitet werden soll.
  • PROJECT_ID: Ihre Projekt-ID.
  • MODEL_ID: Die Modell-ID des multimodalen Modells.
  • TEXT: Die Textanleitung, die in den Prompt eingefügt werden soll.

HTTP-Methode und URL:

POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent

JSON-Text anfordern:

{
  "contents": [{
    "role": "user",
    "parts": [{
      "text": "TEXT"
    }]
  }],
  "tools": [{
    "googleSearchRetrieval": {}
  }],
  "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID"
}

Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:

Sie sollten in etwa folgende JSON-Antwort erhalten:

{
   "candidates": [
     {
       "content": {
         "role": "model",
         "parts": [
           {
             "text": "Chicago weather changes rapidly, so layers let you adjust easily. Consider a base layer, a warm mid-layer (sweater-fleece), and a weatherproof outer layer."
           }
         ]
       },
       "finishReason": "STOP",
       "safetyRatings":[
       "..."
    ],
       "groundingMetadata": {
         "webSearchQueries": [
           "What's the weather in Chicago this weekend?"
         ],
         "searchEntryPoint": {
            "renderedContent": "....................."
         }
       }
     }
   ],
   "usageMetadata": { "..."
   }
 }

Console

So verwenden Sie die Fundierung mit der Google Suche mit Vertex AI Studio:

  1. Rufen Sie in der Google Cloud Console die Seite „Vertex AI Studio“ auf.

    Zu Vertex AI Studio

  2. Klicken Sie auf den Tab Multimodal.
  3. Klicken Sie auf Öffnen, um die Designseite für einen einzelnen Prompt aufzurufen.
  4. Klicken Sie in der Seitenleiste auf Erweitert, um die erweiterten Einstellungen aufzurufen.
  5. Klicken Sie auf die Ein/Aus-Schaltfläche Fundierung aktivieren.
  6. Klicken Sie auf Anpassen und legen Sie die Google Suche als Quelle fest.
  7. Geben Sie Ihren Prompt in das Textfeld ein und klicken Sie auf Senden.

Ihre Prompt-Antworten werden jetzt in der Google Suche fundiert.

Python

Informationen zur Installation des Vertex AI SDK for Python finden Sie unter Vertex AI SDK for Python installieren. Weitere Informationen finden Sie in der Referenzdokumentation zur Python API.

import vertexai

from vertexai.preview.generative_models import grounding
from vertexai.generative_models import GenerationConfig, GenerativeModel, Tool

# TODO(developer): Update and un-comment below line
# project_id = "PROJECT_ID"

vertexai.init(project=project_id, location="us-central1")

model = GenerativeModel(model_name="gemini-1.0-pro-002")

# Use Google Search for grounding
tool = Tool.from_google_search_retrieval(grounding.GoogleSearchRetrieval())

prompt = "When is the next total solar eclipse in US?"
response = model.generate_content(
    prompt,
    tools=[tool],
    generation_config=GenerationConfig(
        temperature=0.0,
    ),
)

print(response)

Ihre Antwort nachvollziehen

Wenn Ihr Modell-Prompt von Vertex AI Studio oder der API erfolgreich bei der Google Suche fundiert wird, enthalten die Antworten Metadaten mit Quelllinks (Web-URLs). Es gibt jedoch mehrere Gründe, warum diese Metadaten möglicherweise nicht bereitgestellt werden und die Prompt-Antwort nicht fundiert wird. Zu diesen Gründen gehören eine geringe Quellrelevanz oder unvollständige Informationen in der Antwort des Modells.

Verwendung von Zitaten

Die Anzeige von Zitaten wird dringend empfohlen. Sie helfen den Nutzern, die Antworten der Publisher selbst zu validieren, und bieten Möglichkeiten zum weiteren Lernen.

Zitate für Antworten aus Quellen der Google Suche sollten sowohl inline als auch aggregiert angezeigt werden. In der folgenden Abbildung sehen Sie einen Vorschlag dafür.

Beispiele für Zitate

Verwendung alternativer Suchmaschinenoptionen

Die Verwendung der Fundierung mit der Google Suche durch den Kunden verhindert nicht, dass der Kunde alternative Suchmaschinenoptionen anbietet, alternative Suchoptionen zur Standardoption von Kundenanwendungen macht oder seine eigenen Suchvorschläge oder Suchergebnisse oder die von Dritten in Kundenanwendungen anzeigt, vorausgesetzt, dass solche Nicht-Google-Suchdienste oder zugehörige Ergebnisse getrennt von den fundierten Ergebnissen und Sucheinstiegspunkten angezeigt werden und in hinreichender Weise nicht den Ergebnissen von Google zugeordnet oder mit diesen verwechselt werden können.

Gemini auf Basis Ihrer Daten fundieren

In diesem Abschnitt wird gezeigt, wie Sie mithilfe der Vertex AI API die Textantworten von Gemini 1.0 Pro mit einem Vertex AI Search-Datenspeicher fundieren.

Die folgenden Modelle unterstützen Grounding:

  • Gemini 1.0 Pro

Es gelten bestimmte Voraussetzungen, bevor Sie Gemini 1.0 Pro fundieren können.

  1. Aktivieren Sie Vertex AI Search und die API.
  2. Erstellen Sie eine Vertex AI Search-Datenquelle und -Anwendung.
  3. Verknüpfen Sie Ihren Datenspeicher mit Ihrer Anwendung in Vertex AI Search. Die Datenquelle dient als Grundlage für das Fundieren von Gemini 1.0 Pro in Vertex Generative AI.
  4. Aktivieren Sie die Enterprise-Version für Ihren Datenspeicher.

Weitere Informationen finden Sie unter Einführung in Vertex AI Search.

Vertex AI Search aktivieren

  1. Rufen Sie in der Google Cloud Console die Seite Suche und Unterhaltung auf.

    Search and Conversation

  2. Lesen und akzeptieren Sie die Nutzungsbedingungen und klicken Sie anschließend auf Fortfahren und API aktivieren.

Vertex AI Search ist am Standort global oder in den Multiregionen eu und us verfügbar. Weitere Informationen finden Sie unter Vertex AI Search-Standorte.

Datenspeicher in Vertex AI Search erstellen

Um Ihre Modelle auf Ihren Quelldaten zu fundieren, müssen Sie die Daten vorbereitet und in Vertex AI Search gespeichert haben. Dazu müssen Sie einen Datenspeicher in Vertex AI Search erstellen.

Wenn Sie bei null beginnen, müssen Sie Ihre Daten für die Aufnahme in Vertex AI Search vorbereiten. Informationen zum Einstieg finden Sie unter Daten für die Aufnahme vorbereiten. Je nach Größe Ihrer Daten kann die Aufnahme einige Minuten bis mehrere Stunden dauern. Nur unstrukturierte Datenspeicher werden für das Fundieren unterstützt.

Nachdem Sie die Daten für die Aufnahme vorbereitet haben, können Sie einen Suchdatenspeicher erstellen. Nachdem Sie erfolgreich einen Datenspeicher erstellt haben, erstellen Sie eine Suchanwendung, um eine Verknüpfung dazu herzustellen, und aktivieren Sie die Enterprise-Version.

Gemini 1.0 Pro-Modell grounden

Wenn Sie Ihre Datenspeicher-ID nicht kennen, gehen Sie so vor:

  1. Rufen Sie in der Google Cloud Console die Seite Vertex AI Search auf und klicken Sie im Navigationsmenü auf Datenspeicher. Zur Seite "Datenspeicher"
  2. Klicken Sie auf den Namen Ihres Datenspeichers.
  3. Rufen Sie auf der Datenseite Ihres Datenspeichers die Datenspeicher-ID ab.

REST

Senden Sie zum Testen eines Text-Prompts mit der Vertex AI API eine POST-Anfrage an den Endpunkt des Publisher-Modells.

Ersetzen Sie diese Werte in den folgenden Anfragedaten:

  • LOCATION: Die Region, in der die Anfrage verarbeitet werden soll.
  • PROJECT_ID: Ihre Projekt-ID.
  • MODEL_ID: Die Modell-ID des multimodalen Modells.
  • TEXT: Die Textanleitung, die in den Prompt eingefügt werden soll.

HTTP-Methode und URL:

POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent

JSON-Text anfordern:

{
  "contents": [{
    "role": "user",
    "parts": [{
      "text": "TEXT"
    }]
  }],
  "tools": [{
    "retrieval": {
      "vertexAiSearch": {
        "datastore": projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID
      }
    }
  }],
  "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID"
}

Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:

Sie sollten in etwa folgende JSON-Antwort erhalten:

{
   "candidates": [
     {
       "content": {
         "role": "model",
         "parts": [
           {
             "text": "You can make an appointment on the website https://dmv.gov/"
           }
         ]
       },
       "finishReason": "STOP",
       "safetyRatings":[
       "..."
    ],
       "groundingMetadata": {
         "retrievalQueries": [
           "How to make appointment to renew driving license?"
         ]
       }
     }
   ],
   "usageMetadata": { "..."
   }
 }

Python

Informationen zur Installation des Vertex AI SDK for Python finden Sie unter Vertex AI SDK for Python installieren. Weitere Informationen finden Sie in der Referenzdokumentation zur Python API.

import vertexai

from vertexai.preview.generative_models import grounding
from vertexai.generative_models import GenerationConfig, GenerativeModel, Tool

# TODO(developer): Update and un-comment below line
# project_id = "PROJECT_ID"

vertexai.init(project=project_id, location="us-central1")

model = GenerativeModel(model_name="gemini-1.0-pro-002")

# Use Vertex AI Search data store
# Format: projects/{project_id}/locations/{location}/collections/default_collection/dataStores/{data_store_id}
tool = Tool.from_retrieval(
    grounding.Retrieval(grounding.VertexAISearch(datastore=data_store_path))
)

prompt = "How do I make an appointment to renew my driver's license?"
response = model.generate_content(
    prompt,
    tools=[tool],
    generation_config=GenerationConfig(
        temperature=0.0,
    ),
)

print(response)

Console

Führen Sie die folgenden Schritte aus, um Ihre Modellausgabe mit Vertex AI Search mithilfe von Vertex AI Studio in der Google Cloud Console zu fundieren:

  1. Rufen Sie in der Google Cloud Console die Seite „Vertex AI Studio“ auf.

    Zu Vertex AI Studio

  2. Klicken Sie auf den Tab Sprache.
  3. Klicken Sie auf Text-Prompt, um die einzelne Prompt-Designseite aufzurufen.
  4. Klicken Sie in der Seitenleiste auf Erweitert, um die erweiterten Einstellungen aufzurufen.
  5. Klicken Sie auf die Ein/Aus-Schaltfläche Fundierung aktivieren, um die Fundierung zu aktivieren.
  6. Klicken Sie auf Anpassen und legen Sie Vertex AI Search als Quelle fest. Der Pfad sollte dieses Format haben: projects/project_id/locations/global/collections/default_collection/dataStores/data_store_id.
  7. Geben Sie Ihren Prompt in das Textfeld ein und klicken Sie auf Senden.

Ihre Prompt-Antworten werden jetzt mit Vertex AI Search fundiert.

Nächste Schritte