Risposte di base per i modelli Gemini

Con Vertex AI, puoi stabilire gli output dei modelli nei seguenti modi:

  • Sfruttare la Ricerca Google per creare un modello dati web disponibili pubblicamente.
  • Basati sui tuoi dati: basa un modello sui tuoi dati Vertex AI Search come datastore (anteprima).

Fondamenta con la Ricerca Google

Usa grounding con la Ricerca Google se vuoi collegare il modello alla conoscenza del mondo, una vasta gamma di argomenti o informazioni aggiornate su internet.

Quando utilizzi questa funzionalità, devi visualizzare un punto di ingresso della Ricerca Google. Per apprendere Per ulteriori informazioni sui requisiti, consulta l'articolo sul punto di accesso della Ricerca Google.

Per scoprire di più sul grounding del modello in Vertex AI, consulta la Panoramica del percorso.

Modelli supportati

I seguenti modelli supportano il grounding:

  • Gemini 1.5 Pro con solo input di testo
  • Gemini 1.5 Flash solo con input di testo
  • Gemini 1.0 Pro con solo input di testo

Lingue supportate

  • Inglese (en)
  • Spagnolo (es)
  • Giapponese (ja)

Segui queste istruzioni per stabilire il grounding di un modello dati web disponibili pubblicamente.

Considerazioni

  • Per usare grounding con la Ricerca Google, devi attivare una voce della Ricerca Google punto di accesso. Per saperne di più, consulta la voce della Ricerca Google punto di accesso.

  • Per ottenere risultati ideali, utilizza una temperatura di 0.0. Per scoprire di più sull'impostazione di questa configurazione, consulta la richiesta dell'API Gemini corpo dal riferimento del modello.

  • Il grounding con la Ricerca Google ha un limite di un milione di query al giorno. Se se hai bisogno di altro, contatta il team di assistenza.

REST

Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:

  • LOCATION: la regione in cui elaborare la richiesta.
  • PROJECT_ID: il tuo ID progetto.
  • MODEL_ID: l'ID del modello multimodale.
  • TEXT: Le istruzioni testuali da includere nel prompt.

Metodo HTTP e URL:

POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent

Corpo JSON della richiesta:

{
  "contents": [{
    "role": "user",
    "parts": [{
      "text": "TEXT"
    }]
  }],
  "tools": [{
    "googleSearchRetrieval": {}
  }],
  "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID"
}

Per inviare la richiesta, espandi una delle seguenti opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
   "candidates": [
     {
       "content": {
         "role": "model",
         "parts": [
           {
             "text": "Chicago weather changes rapidly, so layers let you adjust easily. Consider a base layer, a warm mid-layer (sweater-fleece), and a weatherproof outer layer."
           }
         ]
       },
       "finishReason": "STOP",
       "safetyRatings":[
       "..."
    ],
       "groundingMetadata": {
         "webSearchQueries": [
           "What's the weather in Chicago this weekend?"
         ],
         "searchEntryPoint": {
            "renderedContent": "....................."
         }
       }
     }
   ],
   "usageMetadata": { "..."
   }
 }

Console

Per utilizzare grounding con la Ricerca Google con Vertex AI Studio, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Vertex AI Studio.

    Vai a Vertex AI Studio

  2. Fai clic sulla scheda Multimodale.
  3. Fai clic su Apri per visualizzare la pagina di progettazione di un singolo prompt.
  4. Nel riquadro laterale, fai clic su Avanzate per visualizzare le impostazioni avanzate.
  5. Fai clic sul pulsante di attivazione/disattivazione Abilita grounding.
  6. Fai clic su Personalizza e imposta Ricerca Google come origine.
  7. Inserisci il prompt nella casella di testo e fai clic su Invia.

Le tue risposte ai prompt sono ora basate sulla Ricerca Google.

Python

Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, vedi Installare l'SDK Vertex AI per Python. Per ulteriori informazioni, consulta documentazione di riferimento dell'API Python.

import vertexai

from vertexai.generative_models import (
    GenerationConfig,
    GenerativeModel,
    Tool,
    grounding,
)

# TODO(developer): Update and un-comment below line
# project_id = "PROJECT_ID"

vertexai.init(project=project_id, location="us-central1")

model = GenerativeModel("gemini-1.5-flash-001")

# Use Google Search for grounding
tool = Tool.from_google_search_retrieval(grounding.GoogleSearchRetrieval())

prompt = "When is the next total solar eclipse in US?"
response = model.generate_content(
    prompt,
    tools=[tool],
    generation_config=GenerationConfig(
        temperature=0.0,
    ),
)

print(response)

Comprendere la risposta

Se il prompt del modello è basato correttamente sulla Ricerca Google da Vertex AI Studio o dall'API, le risposte includono metadati con origine (URL web). Tuttavia, esistono diversi motivi per cui questi metadati potrebbero non essere fornito e la risposta al prompt non verrà messa in fondata. Questi motivi includono la bassa pertinenza della fonte o informazioni incomplete all'interno della risposta del modello.

Citazioni

Ti consigliamo vivamente di mostrare le citazioni. Aiutano gli utenti a convalidare le risposte date dagli stessi editori e offrire così nuove opportunità di apprendimento.

Le citazioni delle risposte dalle fonti della Ricerca Google devono essere mostrate sia in linea e in forma aggregata. Vedi l'immagine di seguito come suggerimento su come fare.

Esempi di citazioni

Utilizzo di opzioni di motori di ricerca alternativi

L'utilizzo del grounding con la Ricerca Google da parte del Cliente non impedisce al Cliente di offrendo opzioni di motori di ricerca alternativi, la creazione di opzioni di ricerca alternative l'opzione predefinita per le applicazioni del cliente, oppure la visualizzazione delle proprie suggerimenti di ricerca o risultati di ricerca di terze parti nelle applicazioni del cliente, forniti che tali servizi di ricerca non Google o risultati associati vengano visualizzati separatamente dai risultati con grounding e dai punti di ingresso della ricerca e non possono essere ragionevolmente attribuiti o confusi con i risultati forniti da Google.

Sfrutta Gemini per i tuoi dati

Questa sezione mostra come stabilire le risposte testuali a una Datastore di Vertex AI Agent Builder mediante l'API Vertex AI.

Modelli supportati

I seguenti modelli supportano il grounding:

  • Gemini 1.5 Pro con solo input di testo
  • Gemini 1.5 Flash solo con input di testo
  • Gemini 1.0 Pro con solo input di testo

Prerequisiti

Sono necessari dei prerequisiti prima di poter basare l'output del modello sui tuoi dati.

  1. Abilita Vertex AI Agent Builder e attiva l'API.
  2. Crea un'origine dati e un'app di Vertex AI Agent Builder.
  3. Collega il datastore all'app in Vertex AI Agent Builder. L'origine dati funziona per comprendere Gemini 1.0 Pro in Vertex AI.
  4. Abilita la versione Enterprise per il datastore.

Per saperne di più, consulta la pagina Introduzione a Vertex AI Search.

Abilita Vertex AI Agent Builder

  1. Nella console Google Cloud, vai alla pagina Agent Builder.

    Agent Builder

  2. Leggi e accetta i Termini di servizio, quindi fai clic su Continua e attiva l'API.

Vertex AI Agent Builder è disponibile nella località global o nelle località a più regioni eu e us. A per saperne di più, consulta le località di Vertex AI Agent Builder

Crea un datastore in Vertex AI Agent Builder

Per basare i modelli sui dati di origine, devi avere preparato i tuoi dati in Vertex AI Search. Per farlo, devi creare in un archivio dati in Vertex AI Agent Builder.

Se inizi da zero, devi preparare i dati per l'importazione in Vertex AI Agent Builder. Consulta Preparare i dati per l'importazione per iniziare. A seconda delle dimensioni dei dati, l'importazione può richiedere diverse minuti o diverse ore. Per il grounding sono supportati solo i datastore non strutturati.

Dopo aver preparato i dati per l'importazione, puoi creare un datastore di ricerca. Dopo aver creato un datastore, crea un'app di ricerca per collegarlo e Attivare la versione Enterprise.

Esempio: esegui il grounding del modello Flash Gemini 1.5

Segui le istruzioni riportate di seguito per basare un modello sui tuoi dati.

Se non conosci l'ID datastore, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Vertex AI Agent Builder e Nel menu di navigazione, fai clic su Datastore.

    Vai alla pagina Datastore

  2. Fai clic sul nome del datastore.

  3. Individua l'ID datastore nella pagina Dati del datastore.

REST

Per testare un prompt di testo utilizzando l'API Vertex AI, invia una richiesta POST al endpoint del modello del publisher.

Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:

  • LOCATION: la regione in cui elaborare la richiesta.
  • PROJECT_ID: il tuo ID progetto.
  • MODEL_ID: l'ID del modello multimodale.
  • TEXT: Le istruzioni testuali da includere nel prompt.

Metodo HTTP e URL:

POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent

Corpo JSON della richiesta:

{
  "contents": [{
    "role": "user",
    "parts": [{
      "text": "TEXT"
    }]
  }],
  "tools": [{
    "retrieval": {
      "vertexAiSearch": {
        "datastore": projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID
      }
    }
  }],
  "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID"
}

Per inviare la richiesta, espandi una delle seguenti opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
   "candidates": [
     {
       "content": {
         "role": "model",
         "parts": [
           {
             "text": "You can make an appointment on the website https://dmv.gov/"
           }
         ]
       },
       "finishReason": "STOP",
       "safetyRatings":[
       "..."
    ],
       "groundingMetadata": {
         "retrievalQueries": [
           "How to make appointment to renew driving license?"
         ]
       }
     }
   ],
   "usageMetadata": { "..."
   }
 }

Python

Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, vedi Installare l'SDK Vertex AI per Python. Per ulteriori informazioni, consulta documentazione di riferimento dell'API Python.

import vertexai

from vertexai.preview.generative_models import grounding
from vertexai.generative_models import GenerationConfig, GenerativeModel, Tool

# TODO(developer): Update and un-comment below lines
# project_id = "PROJECT_ID"
# data_store_path = "projects/{project_id}/locations/{location}/collections/default_collection/dataStores/{data_store_id}"

vertexai.init(project=project_id, location="us-central1")

model = GenerativeModel("gemini-1.5-flash-001")

tool = Tool.from_retrieval(
    grounding.Retrieval(grounding.VertexAISearch(datastore=data_store_path))
)

prompt = "How do I make an appointment to renew my driver's license?"
response = model.generate_content(
    prompt,
    tools=[tool],
    generation_config=GenerationConfig(
        temperature=0.0,
    ),
)

print(response)

Console

Per collegare l'output del modello a Vertex AI Agent Builder utilizzando Vertex AI Studio nella nella console Google Cloud, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Vertex AI Studio.

    Vai a Vertex AI Studio

  2. Fai clic sulla scheda Lingua.
  3. Fai clic su Prompt di testo per visualizzare la pagina di progettazione di un singolo prompt.
  4. Nel riquadro laterale, fai clic su Avanzate per visualizzare le impostazioni avanzate.
  5. Fai clic sul pulsante di attivazione/disattivazione Attiva grounding per abilitare il grounding.
  6. Fai clic su Personalizza e imposta Vertex AI Agent Builder come origine. Il percorso deve avere il seguente formato: projects/project_id/locations/global/collections/default_collection/dataStores/data_store_id.
  7. Inserisci il prompt nella casella di testo e fai clic su Invia.

Le tue risposte ai prompt sono ora basate su Vertex AI Agent Builder.

Passaggi successivi