Risposte di base per i modelli Gemini

Con Vertex AI, puoi stabilire gli output dei modelli nei seguenti modi:

  • Basato sulla Ricerca Google: basa un modello con dati web disponibili pubblicamente.
  • Utilizza i tuoi dati come base per creare un modello con i tuoi dati di Vertex AI Search come datastore (anteprima).

Fondamenta con la Ricerca Google

Utilizza grounding con la Ricerca Google se vuoi collegare il modello con conoscenze del mondo, un'ampia gamma possibile di argomenti o informazioni aggiornate su internet.

Quando utilizzi questa funzionalità, devi visualizzare un punto di ingresso della Ricerca Google. Per scoprire di più sui requisiti, consulta la pagina relativa al punto di contatto della Ricerca Google.

Per scoprire di più sul grounding del modello in Vertex AI, consulta la Panoramica sul grounding.

Modelli supportati

I seguenti modelli supportano il grounding:

  • Gemini 1.5 Pro con solo input di testo
  • Gemini 1.5 Flash solo con input di testo
  • Gemini 1.0 Pro con solo input di testo

Lingue supportate

  • Inglese (en)
  • Spagnolo (es)
  • Giapponese (ja)

Segui le istruzioni riportate di seguito per stabilire le basi di un modello con dati web disponibili pubblicamente.

Considerazioni

  • Per utilizzare il grounding con la Ricerca Google, devi abilitare un punto di ingresso della Ricerca Google. Scopri di più nel punto di accesso della Ricerca Google.

  • Per ottenere risultati ideali, utilizza una temperatura di 0.0. Per scoprire di più sull'impostazione di questa configurazione, consulta il corpo della richiesta dell'API Gemini dal riferimento del modello.

  • Il grounding con la Ricerca Google ha un limite di un milione di query al giorno. Se hai bisogno di altro, contatta il tuo team di assistenza.

REST

Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:

  • LOCATION: la regione in cui elaborare la richiesta.
  • PROJECT_ID: il tuo ID progetto.
  • MODEL_ID: l'ID del modello multimodale.
  • TEXT: le istruzioni di testo da includere nel prompt.

Metodo HTTP e URL:

POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent

Corpo JSON della richiesta:

{
  "contents": [{
    "role": "user",
    "parts": [{
      "text": "TEXT"
    }]
  }],
  "tools": [{
    "googleSearchRetrieval": {}
  }],
  "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID"
}

Per inviare la richiesta, espandi una delle seguenti opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
   "candidates": [
     {
       "content": {
         "role": "model",
         "parts": [
           {
             "text": "Chicago weather changes rapidly, so layers let you adjust easily. Consider a base layer, a warm mid-layer (sweater-fleece), and a weatherproof outer layer."
           }
         ]
       },
       "finishReason": "STOP",
       "safetyRatings":[
       "..."
    ],
       "groundingMetadata": {
         "webSearchQueries": [
           "What's the weather in Chicago this weekend?"
         ],
         "searchEntryPoint": {
            "renderedContent": "....................."
         }
       }
     }
   ],
   "usageMetadata": { "..."
   }
 }

Console

Per utilizzare grounding con la Ricerca Google con Vertex AI Studio, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Vertex AI Studio.

    Vai a Vertex AI Studio

  2. Fai clic sulla scheda Multimodale.
  3. Fai clic su Apri per visualizzare la pagina di progettazione di un singolo prompt.
  4. Nel riquadro laterale, fai clic su Avanzate per visualizzare le impostazioni avanzate.
  5. Fai clic sul pulsante di attivazione/disattivazione Abilita grounding.
  6. Fai clic su Personalizza e imposta Ricerca Google come origine.
  7. Inserisci il prompt nella casella di testo e fai clic su Invia.

Le tue risposte ai prompt sono ora basate sulla Ricerca Google.

Python

Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, vedi Installare l'SDK Vertex AI per Python. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Python.

import vertexai

from vertexai.generative_models import (
    GenerationConfig,
    GenerativeModel,
    Tool,
    grounding,
)

# TODO(developer): Update and un-comment below line
# project_id = "PROJECT_ID"

vertexai.init(project=project_id, location="us-central1")

model = GenerativeModel(model_name="gemini-1.5-flash-001")

# Use Google Search for grounding
tool = Tool.from_google_search_retrieval(grounding.GoogleSearchRetrieval())

prompt = "When is the next total solar eclipse in US?"
response = model.generate_content(
    prompt,
    tools=[tool],
    generation_config=GenerationConfig(
        temperature=0.0,
    ),
)

print(response)

Comprendere la risposta

Se il prompt del modello si basa correttamente sulla Ricerca Google da Vertex AI Studio o dall'API, le risposte includono metadati con link di origine (URL web). Tuttavia, esistono diversi motivi per cui questi metadati potrebbero non essere forniti e la risposta al prompt non sarà basata su grounding. Questi motivi includono una scarsa pertinenza delle fonti o informazioni incomplete all'interno della risposta del modello.

Citazioni

Ti consigliamo vivamente di mostrare le citazioni. Aiutano gli utenti a convalidare le risposte degli editori stessi e aggiungono canali per ulteriori approfondimenti.

Le citazioni delle risposte dalle fonti della Ricerca Google devono essere mostrate sia in linea sia in forma aggregata. Guarda la seguente immagine come suggerimento su come fare.

Esempi di citazioni

Utilizzo di opzioni di motori di ricerca alternativi

L'utilizzo di grounding da parte del Cliente con la Ricerca Google non impedisce al Cliente di offrire opzioni di motori di ricerca alternativi, di rendere le opzioni di ricerca alternative l'opzione predefinita per le Applicazioni del cliente o di visualizzare suggerimenti di ricerca o risultati di ricerca propri o di terze parti nelle Applicazioni del cliente, a condizione che tali servizi di ricerca non Google o risultati associati vengano visualizzati separatamente dai risultati con grounding e dai punti di ingresso della Ricerca e non possano essere ragionevolmente attribuiti a Google o confusi con i risultati forniti da Google.

Sfrutta Gemini per i tuoi dati

Questa sezione mostra come basare le risposte di testo di Gemini 1.0 Pro a un datastore di Vertex AI Agent Builder utilizzando fonti di informazioni verificabili. Se fornisci ai modelli l'accesso a origini dati specifiche, il grounding collega il loro output a questi dati dell'API Vertex AI.

Modelli supportati

Puoi solo fornire risposte testuali

I seguenti modelli supportano il grounding:

  • Gemini 1.0 Pro

Prerequisiti

Sono necessari dei prerequisiti per poter utilizzare Gemini 1.0 Pro.

  1. Abilita Vertex AI Agent Builder e attiva l'API.
  2. Crea un'origine dati e un'app di Vertex AI Agent Builder.
  3. Collega il datastore all'app in Vertex AI Agent Builder. L'origine dati funge da base per fondare Gemini 1.0 Pro in Vertex AI.
  4. Abilita la versione Enterprise per il datastore.

Per saperne di più, consulta la pagina Introduzione a Vertex AI Search.

Abilita Vertex AI Agent Builder

  1. Nella console Google Cloud, vai alla pagina Agent Builder.

    Strumento per la creazione di agenti

  2. Leggi e accetta i Termini di servizio, quindi fai clic su Continua e attiva l'API.

Vertex AI Agent Builder è disponibile nella località global o nelle località a più regioni eu e us. Per saperne di più, consulta le località di Vertex AI Agent Builder

Crea un datastore in Vertex AI Agent Builder

Per basare i modelli sui dati di origine, devi aver preparato e salvato i dati in Vertex AI Search. Per farlo, devi creare un data store in Vertex AI Agent Builder.

Se inizi da zero, devi preparare i dati per l'importazione in Vertex AI Agent Builder. Per iniziare, consulta Preparare i dati per l'importazione. A seconda delle dimensioni dei dati, l'importazione può richiedere da vari minuti a diverse ore. Per il grounding sono supportati solo i datastore non strutturati.

Dopo aver preparato i dati per l'importazione, puoi creare un datastore di ricerca. Dopo aver creato un datastore, crea un'app di ricerca da collegare e attiva la versione Enterprise.

Nozioni di base sul modello Gemini 1.0 Pro

Segui le istruzioni riportate di seguito per basare un modello sui tuoi dati.

Se non conosci l'ID datastore, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Vertex AI Agent Builder e nel menu di navigazione, fai clic su Datastore.

    Vai alla pagina Datastore

  2. Fai clic sul nome del datastore.

  3. Individua l'ID datastore nella pagina Dati del datastore.

REST

Per testare un prompt di testo utilizzando l'API Vertex AI, invia una richiesta POST all'endpoint del modello del publisher.

Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:

  • LOCATION: la regione in cui elaborare la richiesta.
  • PROJECT_ID: il tuo ID progetto.
  • MODEL_ID: l'ID del modello multimodale.
  • TEXT: le istruzioni di testo da includere nel prompt.

Metodo HTTP e URL:

POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent

Corpo JSON della richiesta:

{
  "contents": [{
    "role": "user",
    "parts": [{
      "text": "TEXT"
    }]
  }],
  "tools": [{
    "retrieval": {
      "vertexAiSearch": {
        "datastore": projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID
      }
    }
  }],
  "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID"
}

Per inviare la richiesta, espandi una delle seguenti opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
   "candidates": [
     {
       "content": {
         "role": "model",
         "parts": [
           {
             "text": "You can make an appointment on the website https://dmv.gov/"
           }
         ]
       },
       "finishReason": "STOP",
       "safetyRatings":[
       "..."
    ],
       "groundingMetadata": {
         "retrievalQueries": [
           "How to make appointment to renew driving license?"
         ]
       }
     }
   ],
   "usageMetadata": { "..."
   }
 }

Python

Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, vedi Installare l'SDK Vertex AI per Python. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Python.

import vertexai

from vertexai.preview.generative_models import grounding
from vertexai.generative_models import GenerationConfig, GenerativeModel, Tool

# TODO(developer): Update and un-comment below lines
# project_id = "PROJECT_ID"
# data_store_path = "projects/{project_id}/locations/{location}/collections/default_collection/dataStores/{data_store_id}"

vertexai.init(project=project_id, location="us-central1")

model = GenerativeModel(model_name="gemini-1.5-flash-001")

tool = Tool.from_retrieval(
    grounding.Retrieval(grounding.VertexAISearch(datastore=data_store_path))
)

prompt = "How do I make an appointment to renew my driver's license?"
response = model.generate_content(
    prompt,
    tools=[tool],
    generation_config=GenerationConfig(
        temperature=0.0,
    ),
)

print(response)

Console

Per collegare l'output del modello a Vertex AI Agent Builder utilizzando Vertex AI Studio nella console Google Cloud, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Vertex AI Studio.

    Vai a Vertex AI Studio

  2. Fai clic sulla scheda Lingua.
  3. Fai clic su Prompt di testo per visualizzare la pagina di progettazione di un singolo prompt.
  4. Nel riquadro laterale, fai clic su Avanzate per visualizzare le impostazioni avanzate.
  5. Fai clic sul pulsante di attivazione/disattivazione Attiva grounding per abilitare il grounding.
  6. Fai clic su Personalizza e imposta Vertex AI Agent Builder come origine. Il percorso deve avere il seguente formato: projects/project_id/locations/global/collections/default_collection/dataStores/data_store_id.
  7. Inserisci il prompt nella casella di testo e fai clic su Invia.

Le tue risposte ai prompt sono ora basate su Vertex AI Agent Builder.

Passaggi successivi