Risposte di base per i modelli Gemini

Con Vertex AI, puoi stabilire gli output dei modelli nei seguenti modi:

  • Basamento con la Ricerca Google: basa un modello su dati web disponibili pubblicamente.
  • Basati sui tuoi dati: basa un modello sui tuoi dati Vertex AI Search come datastore (anteprima).

Fondamenta con la Ricerca Google

Usa grounding con la Ricerca Google se vuoi collegare il modello alla conoscenza del mondo, una vasta gamma di argomenti o informazioni aggiornate su internet.

Quando utilizzi questa funzionalità, devi mostrare un punto di contatto della Ricerca Google. Per scoprire di più sui requisiti, consulta Punto di contatto della Ricerca Google.

Per scoprire di più sul grounding del modello in Vertex AI, consulta la Panoramica del percorso.

Modelli supportati

I seguenti modelli supportano il grounding:

  • Gemini 1.5 Pro con solo input di testo
  • Gemini 1.5 Flash solo con input di testo
  • Gemini 1.0 Pro con solo input di testo

Lingue supportate

  • Inglese (en)
  • Spagnolo (es)
  • Giapponese (ja)

Segui le istruzioni riportate di seguito per stabilire le basi di un modello con le risorse web disponibili pubblicamente e i dati di Google Cloud.

Considerazioni

  • Per usare grounding con la Ricerca Google, devi attivare una voce della Ricerca Google punto di accesso. Per saperne di più, consulta la voce della Ricerca Google punto di accesso.

  • Per ottenere risultati ideali, utilizza una temperatura di 0.0. Per scoprire di più sull'impostazione di questa configurazione, consulta la richiesta dell'API Gemini corpo dal riferimento del modello.

  • Il grounding con la Ricerca Google ha un limite di un milione di query al giorno. Se se hai bisogno di altro, contatta il team di assistenza.

REST

Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:

  • LOCATION: la regione in cui elaborare la richiesta.
  • PROJECT_ID: il tuo ID progetto.
  • MODEL_ID: l'ID del modello multimodale.
  • TEXT: Le istruzioni testuali da includere nel prompt.

Metodo HTTP e URL:

POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent

Corpo JSON della richiesta:

{
  "contents": [{
    "role": "user",
    "parts": [{
      "text": "TEXT"
    }]
  }],
  "tools": [{
    "googleSearchRetrieval": {}
  }],
  "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID"
}

Per inviare la richiesta, espandi una delle seguenti opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
   "candidates": [
     {
       "content": {
         "role": "model",
         "parts": [
           {
             "text": "Chicago weather changes rapidly, so layers let you adjust easily. Consider a base layer, a warm mid-layer (sweater-fleece), and a weatherproof outer layer."
           }
         ]
       },
       "finishReason": "STOP",
       "safetyRatings":[
       "..."
    ],
       "groundingMetadata": {
         "webSearchQueries": [
           "What's the weather in Chicago this weekend?"
         ],
         "searchEntryPoint": {
            "renderedContent": "....................."
         }
       }
     }
   ],
   "usageMetadata": { "..."
   }
 }

Console

Per utilizzare la funzionalità di ancoraggio con la Ricerca Google in Vertex AI Studio, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Vertex AI Studio.

    Vai a Vertex AI Studio

  2. Fai clic sulla scheda Forma libera.
  3. Nel riquadro laterale, fai clic sul pulsante di attivazione/disattivazione Risposte del modello di base.
  4. Fai clic su Personalizza e imposta Ricerca Google come origine.
  5. Inserisci il prompt nella casella di testo e fai clic su Invia.

Le tue risposte ai prompt sono ora basate sulla Ricerca Google.

Python

Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, vedi Installare l'SDK Vertex AI per Python. Per ulteriori informazioni, consulta documentazione di riferimento dell'API Python.

import vertexai

from vertexai.generative_models import (
    GenerationConfig,
    GenerativeModel,
    Tool,
    grounding,
)

# TODO (developer): update project_id
vertexai.init(project=PROJECT_ID, location="us-central1")

model = GenerativeModel("gemini-1.5-flash-001")

# Use Google Search for grounding
tool = Tool.from_google_search_retrieval(grounding.GoogleSearchRetrieval())

prompt = "When is the next total solar eclipse in US?"
response = model.generate_content(
    prompt,
    tools=[tool],
    generation_config=GenerationConfig(
        temperature=0.0,
    ),
)

print(response.text)

Comprendere la risposta

Se il prompt del modello è basato correttamente sulla Ricerca Google da Vertex AI Studio o dall'API, le risposte includono metadati con origine (URL web). Tuttavia, esistono diversi motivi per cui questi metadati potrebbero non essere fornito e la risposta al prompt non verrà messa in fondata. Questi motivi includono la bassa pertinenza della fonte o informazioni incomplete all'interno della risposta del modello.

Citazioni

Ti consigliamo vivamente di mostrare le citazioni. Aiutano gli utenti a convalidare le risposte dei publisher stessi e offrono opportunità di apprendimento ulteriore.

Le citazioni per le risposte provenienti dalle fonti della Ricerca Google devono essere mostrate sia in linea sia in forma aggregata. Guarda la seguente immagine come suggerimento su come fare.

Esempi di citazioni

Utilizzo di opzioni di motori di ricerca alternativi

L'utilizzo del grounding con la Ricerca Google da parte del Cliente non impedisce al Cliente di offrendo opzioni di motori di ricerca alternativi, la creazione di opzioni di ricerca alternative l'opzione predefinita per le applicazioni del cliente, oppure la visualizzazione delle proprie suggerimenti di ricerca o risultati di ricerca di terze parti nelle applicazioni del cliente, forniti che tali servizi della Ricerca non Google o risultati associati vengano visualizzati separatamente dai risultati con grounding e dai punti di ingresso della ricerca e non possono essere ragionevolmente attribuiti o confusi con i risultati forniti da Google.

Sfrutta Gemini per i tuoi dati

Questa sezione mostra come stabilire le risposte testuali a una Datastore di Vertex AI Agent Builder mediante l'API Vertex AI.

Modelli supportati

I seguenti modelli supportano il grounding:

  • Gemini 1.5 Pro con solo input di testo
  • Gemini 1.5 Flash solo con input di testo
  • Gemini 1.0 Pro con solo input di testo

Prerequisiti

Sono necessari dei prerequisiti prima di poter basare l'output del modello sui tuoi dati.

  1. Abilita Vertex AI Agent Builder e attiva l'API.
  2. Crea un'origine dati e un'app di Vertex AI Agent Builder.
  3. Collega il datastore all'app in Vertex AI Agent Builder. L'origine dati funziona per comprendere Gemini 1.0 Pro in Vertex AI.
  4. Abilita la versione Enterprise per il datastore.

Per saperne di più, consulta la pagina Introduzione a Vertex AI Search.

Abilita Vertex AI Agent Builder

  1. Nella console Google Cloud, vai alla pagina Agent Builder.

    Agent Builder

  2. Leggi e accetta i Termini di servizio, quindi fai clic su Continua e attiva l'API.

Vertex AI Agent Builder è disponibile nella località global o nelle regioni multiple eu e us. Per approfondire, consulta le località di Vertex AI Agent Builder

Creare un data store in Vertex AI Agent Builder

Per basare i modelli sui dati di origine, devi avere preparato i tuoi dati in Vertex AI Search. Per farlo, devi creare un data store in Vertex AI Agent Builder.

Se inizi da zero, devi preparare i dati per l'importazione in Vertex AI Agent Builder. Per iniziare, consulta Preparare i dati per l'importazione. A seconda delle dimensioni dei dati, l'importazione può richiedere da alcuni minuti a diverse ore. Per il grounding sono supportati solo i datastore non strutturati.

Dopo aver preparato i dati per l'importazione, puoi creare un datastore per la ricerca. Dopo aver creato un datastore, crea un'app di ricerca per collegarlo e Attivare la versione Enterprise.

Esempio: esegui il grounding del modello Flash Gemini 1.5

Segui le istruzioni riportate di seguito per basare un modello sui tuoi dati.

Se non conosci l'ID datastore, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Agent Builder di Vertex AI e nel menu di navigazione fai clic su Data store.

    Vai alla pagina Datastore

  2. Fai clic sul nome del datastore.

  3. Nella pagina Dati del tuo datastore, recupera l'ID del datastore.

REST

Per testare un prompt di testo utilizzando l'API Vertex AI, invia una richiesta POST al l'endpoint del modello del publisher.

Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:

  • LOCATION: la regione in cui elaborare la richiesta.
  • PROJECT_ID: il tuo ID progetto.
  • MODEL_ID: l'ID del modello multimodale.
  • TEXT: Le istruzioni testuali da includere nel prompt.

Metodo HTTP e URL:

POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent

Corpo JSON della richiesta:

{
  "contents": [{
    "role": "user",
    "parts": [{
      "text": "TEXT"
    }]
  }],
  "tools": [{
    "retrieval": {
      "vertexAiSearch": {
        "datastore": projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID
      }
    }
  }],
  "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID"
}

Per inviare la richiesta, espandi una delle seguenti opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
  "candidates": [
    {
      "content": {
        "role": "model",
        "parts": [
          {
            "text": "You can make an appointment on the website https://dmv.gov/"
          }
        ]
      },
      "finishReason": "STOP",
      "safetyRatings": [
        "..."
      ],
      "groundingMetadata": {
        "retrievalQueries": [
          "How to make appointment to renew driving license?"
        ],
        "groundingChunks": [
          {
            "retrievedContext": {
              "uri": "gs://my-data-bucket/dmv.txt",
              "title": "dmv"
            }
          }
        ],
        "groundingSupport": [
          {
            "segment": {
              "startIndex": 25,
              "endIndex": 147
            },
            "segment_text": "ipsum lorem ...",
            "supportChunkIndices": [1, 2],
            "confidenceScore": [0.9541752, 0.97726375]
          },
          {
            "segment": {
              "startIndex": 294,
              "endIndex": 439
            },
            "segment_text": "ipsum lorem ...",
            "supportChunkIndices": [1],
            "confidenceScore": [0.9541752, 0.9325467]
          }
        ]
      }
    }
  ],
  "usageMetadata": {
    "..."
  }
}

Comprendere la risposta

groundingSupport è un campo di risposta visualizzato nel campo groundingMetadata. it contiene le informazioni sui blocchi di supporto utilizzati per generare la risposta. Questo campo include i contenuti da cui ha ottenuto le informazioni da cui proviene. È come inserire note a piè di pagina o citazioni, per permetterti di verificare se la risposta dell'IA è sono accurate e affidabili.

Python

Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, consulta Installare l'SDK Vertex AI per Python. Per ulteriori informazioni, consulta documentazione di riferimento dell'API Python.

import vertexai

from vertexai.preview.generative_models import (
    GenerationConfig,
    GenerativeModel,
    Tool,
    grounding,
)

# TODO (developer): update project_id
vertexai.init(project=PROJECT_ID, location="us-central1")

model = GenerativeModel("gemini-1.5-flash-001")

# TODO(developer): Update project id, location, and data store id for your Vertex AI Search data store.
# data_store_id = "DATA_STORE_ID"

tool = Tool.from_retrieval(
    grounding.Retrieval(
        grounding.VertexAISearch(
            datastore=data_store_id,
            project=PROJECT_ID,
            location="global",
        )
    )
)

prompt = "How do I make an appointment to renew my driver's license?"
response = model.generate_content(
    prompt,
    tools=[tool],
    generation_config=GenerationConfig(
        temperature=0.0,
    ),
)

print(response.text)

Console

Per collegare l'output del modello a Vertex AI Agent Builder utilizzando Vertex AI Studio nella nella console Google Cloud, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Vertex AI Studio.

    Vai a Vertex AI Studio

  2. Fai clic sulla scheda Formato libero.
  3. Nel riquadro laterale, fai clic sul pulsante di attivazione/disattivazione Risposte del modello di terra per abilitare la messa a terra.
  4. Fai clic su Personalizza e imposta Vertex AI Agent Builder come origine. Il percorso deve avere il seguente formato: projects/project_id/locations/global/collections/default_collection/dataStores/data_store_id.
  5. Inserisci il prompt nella casella di testo e fai clic su Invia.

Le tue risposte ai prompt sono ora basate su Vertex AI Agent Builder.

Passaggi successivi