Risposte di base per i modelli Gemini

grounding con la Ricerca Google

Utilizza il grounding con la Ricerca Google per collegare il modello con conoscenze globali, un'ampia gamma possibile di argomenti o informazioni aggiornate su internet.

Quando utilizzi questa funzionalità, devi visualizzare un punto di ingresso della Ricerca Google. Per scoprire di più sui requisiti, consulta il punto di contatto della Ricerca Google.

Per scoprire di più sul grounding del modello in Vertex AI, consulta la panoramica del grounding.

Modelli supportati

I seguenti modelli supportano il grounding:

  • Gemini 1.5 Pro solo con input di testo
  • Gemini 1.5 Flash solo con input di testo
  • Gemini 1.0 Pro solo con input di testo

Lingue supportate

  • Inglese (en)
  • Spagnolo (es)
  • Giapponese (ja)

Se usi il grounding con la Ricerca Google, ti consigliamo di utilizzare una temperatura pari a 0.0. Per saperne di più sull'impostazione di questa configurazione, consulta il corpo della richiesta dell'API Gemini del riferimento del modello.

REST

Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:

  • LOCATION: la regione in cui elaborare la richiesta.
  • PROJECT_ID: il tuo ID progetto.
  • MODEL_ID: l'ID del modello multimodale.
  • TEXT: le istruzioni di testo da includere nel prompt.

Metodo HTTP e URL:

POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent

Corpo JSON della richiesta:

{
  "contents": [{
    "role": "user",
    "parts": [{
      "text": "TEXT"
    }]
  }],
  "tools": [{
    "googleSearchRetrieval": {}
  }],
  "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID"
}

Per inviare la richiesta, espandi una di queste opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
   "candidates": [
     {
       "content": {
         "role": "model",
         "parts": [
           {
             "text": "Chicago weather changes rapidly, so layers let you adjust easily. Consider a base layer, a warm mid-layer (sweater-fleece), and a weatherproof outer layer."
           }
         ]
       },
       "finishReason": "STOP",
       "safetyRatings":[
       "..."
    ],
       "groundingMetadata": {
         "webSearchQueries": [
           "What's the weather in Chicago this weekend?"
         ],
         "searchEntryPoint": {
            "renderedContent": "....................."
         }
       }
     }
   ],
   "usageMetadata": { "..."
   }
 }

Console

Per utilizzare il grounding con la Ricerca Google con Vertex AI Studio:

  1. Nella console Google Cloud, vai alla pagina Vertex AI Studio.

    Vai a Vertex AI Studio

  2. Fai clic sulla scheda Multimodale.
  3. Fai clic su Apri per visualizzare la pagina di progettazione di un prompt singolo.
  4. Nel riquadro laterale, fai clic su Avanzate per visualizzare le impostazioni avanzate.
  5. Fai clic sul pulsante di attivazione/disattivazione Abilita grounding.
  6. Fai clic su Personalizza e imposta Ricerca Google come origine.
  7. Inserisci il prompt nella casella di testo e fai clic su Invia.

Le risposte dei prompt ora sono indirizzate alla Ricerca Google.

Python

Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, consulta Installare l'SDK Vertex AI per Python. Per saperne di più, consulta la documentazione di riferimento dell'API Python.

import vertexai

from vertexai.preview.generative_models import grounding
from vertexai.generative_models import GenerationConfig, GenerativeModel, Tool

# TODO(developer): Update and un-comment below line
# project_id = "PROJECT_ID"

vertexai.init(project=project_id, location="us-central1")

model = GenerativeModel(model_name="gemini-1.0-pro-002")

# Use Google Search for grounding
tool = Tool.from_google_search_retrieval(grounding.GoogleSearchRetrieval())

prompt = "When is the next total solar eclipse in US?"
response = model.generate_content(
    prompt,
    tools=[tool],
    generation_config=GenerationConfig(
        temperature=0.0,
    ),
)

print(response)

Comprendere la risposta

Se il prompt del modello si basa correttamente sulla Ricerca Google da Vertex AI Studio o dall'API, le risposte includono metadati con link alle origini (URL web). Tuttavia, questi metadati potrebbero non essere forniti per diversi motivi e la risposta del prompt non deve essere basata su fondamenta. Questi motivi includono una bassa pertinenza dell'origine o informazioni incomplete nella risposta del modello.

Citazioni

È vivamente consigliato mostrare le citazioni. Aiutano gli utenti a convalidare le risposte degli editori stessi e aggiungono ulteriori opportunità di apprendimento.

Le citazioni relative alle risposte provenienti dalle fonti della Ricerca Google devono essere mostrate sia in linea che in forma aggregata. Guarda l'immagine di seguito come suggerimento su come fare.

Esempi di citazioni

Utilizzo di opzioni alternative per i motori di ricerca

L'utilizzo del Grounding con la Ricerca Google non impedisce al Cliente di offrire opzioni di motori di ricerca alternative, di rendere queste opzioni di ricerca alternative l'opzione predefinita per le Applicazioni del cliente, oppure di visualizzare suggerimenti di ricerca o risultati di ricerca propri o di terze parti nelle Applicazioni del cliente, a condizione che tali servizi di ricerca non Google o risultati associati vengano visualizzati separatamente dai risultati Grounded e dai punti di contatto della ricerca e non possano essere ragionevolmente attribuiti a Google o confusi con i risultati.

Integra Gemini in base ai tuoi dati

Questa sezione mostra come basare le risposte testuali di Gemini 1.0 Pro a un datastore Vertex AI Search utilizzando l'API Vertex AI.

I seguenti modelli supportano il grounding:

  • Gemini 1.0 Pro

Per poter utilizzare Gemini 1.0 Pro, devi avere dei prerequisiti necessari.

  1. Abilita Vertex AI Search e attiva l'API.
  2. Creare un'origine dati e un'app Vertex AI Search.
  3. Collega il tuo datastore alla tua app in Vertex AI Search. L'origine dati è la base per fondare Gemini 1.0 Pro in Vertex AI.
  4. Attiva la versione Enterprise per il tuo datastore.

Per saperne di più, consulta Introduzione a Vertex AI Search.

Abilita Vertex AI Search

  1. Nella console Google Cloud, vai alla pagina Ricerca e conversazione.

    Ricerca e conversazione

  2. Leggi e accetta i Termini di servizio e poi fai clic su Continua e attiva l'API.

Vertex AI Search è disponibile nella località global o nelle località multiregionali eu e us. Per scoprire di più, consulta Località di Vertex AI Search

Crea un datastore in Vertex AI Search

Per basare i tuoi modelli sui dati di origine, devi aver preparato e salvato i dati in Vertex AI Search. Per farlo, devi creare un datastore in Vertex AI Search.

Se parti da zero, devi preparare i dati per l'importazione in Vertex AI Search. Consulta Preparare i dati per l'importazione per iniziare. A seconda delle dimensioni dei dati, l'importazione può richiedere da alcuni minuti a diverse ore. Per il grounding sono supportati solo datastore non strutturati.

Dopo aver preparato i dati per l'importazione, puoi creare un datastore di ricerca. Dopo aver creato correttamente un datastore, crea un'app di ricerca per collegarlo e attiva la versione Enterprise.

Sfrutta il modello Gemini 1.0 Pro

Se non conosci il tuo ID datastore:

  1. Nella console Google Cloud, vai alla pagina Vertex AI Search e fai clic su Datastore nel menu di navigazione. Vai alla pagina Datastore
  2. Fai clic sul nome del tuo datastore.
  3. Nella pagina Dati del datastore, recupera l'ID datastore.

REST

Per testare un prompt di testo utilizzando l'API Vertex AI, invia una richiesta POST all'endpoint del modello del publisher.

Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:

  • LOCATION: la regione in cui elaborare la richiesta.
  • PROJECT_ID: il tuo ID progetto.
  • MODEL_ID: l'ID del modello multimodale.
  • TEXT: le istruzioni di testo da includere nel prompt.

Metodo HTTP e URL:

POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent

Corpo JSON della richiesta:

{
  "contents": [{
    "role": "user",
    "parts": [{
      "text": "TEXT"
    }]
  }],
  "tools": [{
    "retrieval": {
      "vertexAiSearch": {
        "datastore": projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID
      }
    }
  }],
  "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID"
}

Per inviare la richiesta, espandi una di queste opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
   "candidates": [
     {
       "content": {
         "role": "model",
         "parts": [
           {
             "text": "You can make an appointment on the website https://dmv.gov/"
           }
         ]
       },
       "finishReason": "STOP",
       "safetyRatings":[
       "..."
    ],
       "groundingMetadata": {
         "retrievalQueries": [
           "How to make appointment to renew driving license?"
         ]
       }
     }
   ],
   "usageMetadata": { "..."
   }
 }

Python

Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, consulta Installare l'SDK Vertex AI per Python. Per saperne di più, consulta la documentazione di riferimento dell'API Python.

import vertexai

from vertexai.preview.generative_models import grounding
from vertexai.generative_models import GenerationConfig, GenerativeModel, Tool

# TODO(developer): Update and un-comment below line
# project_id = "PROJECT_ID"

vertexai.init(project=project_id, location="us-central1")

model = GenerativeModel(model_name="gemini-1.0-pro-002")

# Use Vertex AI Search data store
# Format: projects/{project_id}/locations/{location}/collections/default_collection/dataStores/{data_store_id}
tool = Tool.from_retrieval(
    grounding.Retrieval(grounding.VertexAISearch(datastore=data_store_path))
)

prompt = "How do I make an appointment to renew my driver's license?"
response = model.generate_content(
    prompt,
    tools=[tool],
    generation_config=GenerationConfig(
        temperature=0.0,
    ),
)

print(response)

Console

Per fondare l'output del modello su Vertex AI Search utilizzando Vertex AI Studio nella console Google Cloud, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Vertex AI Studio.

    Vai a Vertex AI Studio

  2. Fai clic sulla scheda Lingua.
  3. Fai clic su Prompt di testo per visualizzare la pagina di progettazione di un prompt singolo.
  4. Nel riquadro laterale, fai clic su Avanzate per visualizzare le impostazioni avanzate.
  5. Fai clic sul pulsante di attivazione/disattivazione Abilita grounding per abilitare il grounding.
  6. Fai clic su Personalizza e imposta Vertex AI Search come origine. Il percorso deve avere questo formato: projects/project_id/locations/global/collections/default_collection/dataStores/data_store_id.
  7. Inserisci il prompt nella casella di testo e fai clic su Invia.

Le risposte dei prompt ora si basano su Vertex AI Search.

Passaggi successivi