Con Vertex AI, puoi stabilire gli output dei modelli nei seguenti modi:
- Basato sulla Ricerca Google: basa un modello con dati web disponibili pubblicamente.
- Utilizza i tuoi dati come base per creare un modello con i tuoi dati di Vertex AI Search come datastore (anteprima).
Fondamenta con la Ricerca Google
Utilizza grounding con la Ricerca Google se vuoi collegare il modello con conoscenze del mondo, un'ampia gamma possibile di argomenti o informazioni aggiornate su internet.
Quando utilizzi questa funzionalità, devi visualizzare un punto di ingresso della Ricerca Google. Per scoprire di più sui requisiti, consulta la pagina relativa al punto di contatto della Ricerca Google.
Per scoprire di più sul grounding del modello in Vertex AI, consulta la Panoramica sul grounding.
Modelli supportati
I seguenti modelli supportano il grounding:
- Gemini 1.5 Pro con solo input di testo
- Gemini 1.5 Flash solo con input di testo
- Gemini 1.0 Pro con solo input di testo
Lingue supportate
- Inglese (en)
- Spagnolo (es)
- Giapponese (ja)
Fonda il tuo modello con la Ricerca Google
Segui le istruzioni riportate di seguito per stabilire le basi di un modello con dati web disponibili pubblicamente.
Considerazioni
Per utilizzare il grounding con la Ricerca Google, devi abilitare un punto di ingresso della Ricerca Google. Scopri di più nel punto di accesso della Ricerca Google.
Per ottenere risultati ideali, utilizza una temperatura di
0.0
. Per scoprire di più sull'impostazione di questa configurazione, consulta il corpo della richiesta dell'API Gemini dal riferimento del modello.Il grounding con la Ricerca Google ha un limite di un milione di query al giorno. Se hai bisogno di altro, contatta il tuo team di assistenza.
REST
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- LOCATION: la regione in cui elaborare la richiesta.
- PROJECT_ID: il tuo ID progetto.
- MODEL_ID: l'ID del modello multimodale.
- TEXT: le istruzioni di testo da includere nel prompt.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent
Corpo JSON della richiesta:
{ "contents": [{ "role": "user", "parts": [{ "text": "TEXT" }] }], "tools": [{ "googleSearchRetrieval": {} }], "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID" }
Per inviare la richiesta, espandi una delle seguenti opzioni:
Dovresti ricevere una risposta JSON simile alla seguente:
{ "candidates": [ { "content": { "role": "model", "parts": [ { "text": "Chicago weather changes rapidly, so layers let you adjust easily. Consider a base layer, a warm mid-layer (sweater-fleece), and a weatherproof outer layer." } ] }, "finishReason": "STOP", "safetyRatings":[ "..." ], "groundingMetadata": { "webSearchQueries": [ "What's the weather in Chicago this weekend?" ], "searchEntryPoint": { "renderedContent": "....................." } } } ], "usageMetadata": { "..." } }
Console
Per utilizzare grounding con la Ricerca Google con Vertex AI Studio, segui questi passaggi:
- Nella console Google Cloud, vai alla pagina Vertex AI Studio.
- Fai clic sulla scheda Multimodale.
- Fai clic su Apri per visualizzare la pagina di progettazione di un singolo prompt.
- Nel riquadro laterale, fai clic su Avanzate per visualizzare le impostazioni avanzate.
- Fai clic sul pulsante di attivazione/disattivazione Abilita grounding.
- Fai clic su Personalizza e imposta Ricerca Google come origine.
- Inserisci il prompt nella casella di testo e fai clic su Invia.
Le tue risposte ai prompt sono ora basate sulla Ricerca Google.
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, vedi Installare l'SDK Vertex AI per Python. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Python.
Comprendere la risposta
Se il prompt del modello si basa correttamente sulla Ricerca Google da Vertex AI Studio o dall'API, le risposte includono metadati con link di origine (URL web). Tuttavia, esistono diversi motivi per cui questi metadati potrebbero non essere forniti e la risposta al prompt non sarà basata su grounding. Questi motivi includono una scarsa pertinenza delle fonti o informazioni incomplete all'interno della risposta del modello.
Citazioni
Ti consigliamo vivamente di mostrare le citazioni. Aiutano gli utenti a convalidare le risposte degli editori stessi e aggiungono canali per ulteriori approfondimenti.
Le citazioni delle risposte dalle fonti della Ricerca Google devono essere mostrate sia in linea sia in forma aggregata. Guarda la seguente immagine come suggerimento su come fare.
Utilizzo di opzioni di motori di ricerca alternativi
L'utilizzo di grounding da parte del Cliente con la Ricerca Google non impedisce al Cliente di offrire opzioni di motori di ricerca alternativi, di rendere le opzioni di ricerca alternative l'opzione predefinita per le Applicazioni del cliente o di visualizzare suggerimenti di ricerca o risultati di ricerca propri o di terze parti nelle Applicazioni del cliente, a condizione che tali servizi di ricerca non Google o risultati associati vengano visualizzati separatamente dai risultati con grounding e dai punti di ingresso della Ricerca e non possano essere ragionevolmente attribuiti a Google o confusi con i risultati forniti da Google.
Sfrutta Gemini per i tuoi dati
Questa sezione mostra come stabilire le risposte testuali di Gemini 1.0 Pro a un datastore di Vertex AI Agent Builder utilizzando l'API Vertex AI.
Modelli supportati
I seguenti modelli supportano il grounding:
- Gemini 1.5 Pro con solo input di testo
- Gemini 1.5 Flash solo con input di testo
- Gemini 1.0 Pro con solo input di testo
Prerequisiti
Sono necessari dei prerequisiti per poter utilizzare Gemini 1.0 Pro.
- Abilita Vertex AI Agent Builder e attiva l'API.
- Crea un'origine dati e un'app di Vertex AI Agent Builder.
- Collega il datastore all'app in Vertex AI Agent Builder. L'origine dati funge da base per fondare Gemini 1.0 Pro in Vertex AI.
- Abilita la versione Enterprise per il datastore.
Per saperne di più, consulta la pagina Introduzione a Vertex AI Search.
Abilita Vertex AI Agent Builder
Nella console Google Cloud, vai alla pagina Agent Builder.
Leggi e accetta i Termini di servizio, quindi fai clic su Continua e attiva l'API.
Vertex AI Agent Builder è disponibile nella località global
o nelle località a più regioni eu
e us
. Per
saperne di più, consulta le località di Vertex AI Agent Builder
Crea un datastore in Vertex AI Agent Builder
Per basare i modelli sui dati di origine, devi aver preparato e salvato i dati in Vertex AI Search. Per farlo, devi creare un data store in Vertex AI Agent Builder.
Se inizi da zero, devi preparare i dati per l'importazione in Vertex AI Agent Builder. Per iniziare, consulta Preparare i dati per l'importazione. A seconda delle dimensioni dei dati, l'importazione può richiedere da vari minuti a diverse ore. Per il grounding sono supportati solo i datastore non strutturati.
Dopo aver preparato i dati per l'importazione, puoi creare un datastore di ricerca. Dopo aver creato un datastore, crea un'app di ricerca da collegare e attiva la versione Enterprise.
Nozioni di base sul modello Gemini 1.0 Pro
Segui le istruzioni riportate di seguito per basare un modello sui tuoi dati.
Se non conosci l'ID datastore, segui questi passaggi:
Nella console Google Cloud, vai alla pagina Vertex AI Agent Builder e nel menu di navigazione, fai clic su Datastore.
Fai clic sul nome del datastore.
Individua l'ID datastore nella pagina Dati del datastore.
REST
Per testare un prompt di testo utilizzando l'API Vertex AI, invia una richiesta POST all'endpoint del modello del publisher.
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- LOCATION: la regione in cui elaborare la richiesta.
- PROJECT_ID: il tuo ID progetto.
- MODEL_ID: l'ID del modello multimodale.
- TEXT: le istruzioni di testo da includere nel prompt.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:generateContent
Corpo JSON della richiesta:
{ "contents": [{ "role": "user", "parts": [{ "text": "TEXT" }] }], "tools": [{ "retrieval": { "vertexAiSearch": { "datastore": projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID } } }], "model": "projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID" }
Per inviare la richiesta, espandi una delle seguenti opzioni:
Dovresti ricevere una risposta JSON simile alla seguente:
{ "candidates": [ { "content": { "role": "model", "parts": [ { "text": "You can make an appointment on the website https://dmv.gov/" } ] }, "finishReason": "STOP", "safetyRatings":[ "..." ], "groundingMetadata": { "retrievalQueries": [ "How to make appointment to renew driving license?" ] } } ], "usageMetadata": { "..." } }
Python
Per scoprire come installare o aggiornare l'SDK Vertex AI per Python, vedi Installare l'SDK Vertex AI per Python. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Python.
Console
Per collegare l'output del modello a Vertex AI Agent Builder utilizzando Vertex AI Studio nella console Google Cloud, segui questi passaggi:
- Nella console Google Cloud, vai alla pagina Vertex AI Studio.
- Fai clic sulla scheda Lingua.
- Fai clic su Prompt di testo per visualizzare la pagina di progettazione di un singolo prompt.
- Nel riquadro laterale, fai clic su Avanzate per visualizzare le impostazioni avanzate.
- Fai clic sul pulsante di attivazione/disattivazione Attiva grounding per abilitare il grounding.
- Fai clic su Personalizza e imposta Vertex AI Agent Builder come origine. Il percorso deve avere il seguente formato: projects/project_id/locations/global/collections/default_collection/dataStores/data_store_id.
- Inserisci il prompt nella casella di testo e fai clic su Invia.
Le tue risposte ai prompt sono ora basate su Vertex AI Agent Builder.
Passaggi successivi
- Scopri come inviare richieste di prompt di chat.
- Scopri di più sulle best practice per l'IA responsabile e sui filtri di sicurezza di Vertex AI.
- Per informazioni su come collegare i modelli PaLM, consulta Informazioni sul grounding in Vertex AI