Sono disponibili le seguenti impostazioni dell'agente.
Grounding
Per ogni risposta generata dai contenuti dei tuoi data store collegati, viene calcolato un livello di confidenza che misura la probabilità che tutte le informazioni nella risposta siano supportate dalle informazioni nei data store. Puoi selezionare il livello di confidenza più basso consentito e l'agente non restituirà risposte inferiori a questo livello.
Puoi scegliere tra cinque livelli di confidenza: molto basso, basso, medio, alto e molto alto.
Puoi anche applicare un filtro di regole di grounding. Se questa opzione è attivata, le risposte contenenti contenuti probabilmente inaccurati in base ad allucinazioni comuni vengono eliminate.
Prompt del datastore
Hai la possibilità di aggiungere ulteriori informazioni sull'agente che possono migliorare la qualità delle risposte generate dai contenuti del datastore e renderle più simili al tuo brand:
- Nome agente: il nome che l'agente deve usare per identificarsi. Se non lo imposti, verrà utilizzato il valore predefinito AI Assistant.
- Identità agente: la persona dell'agente. Se non lo imposti, verrà utilizzato il valore predefinito AI Assistant.
- Nome azienda Imposta il nome della tua azienda. Dovrebbe essere già stato impostato nell'ambito del flusso di creazione dell'agente, ma può essere modificato in base alle esigenze. È consigliabile impostare questo campo correttamente (e soprattutto non lasciarlo vuoto), per non compromettere la qualità delle risposte generate.
- Descrizione dell'azienda Una breve descrizione delle attività o offerte dell'azienda.
- Ambito dell'agente: dove deve essere utilizzato l'agente. Se non lo imposti, verrà utilizzato il valore predefinito sul sito web dell'azienda.
Una volta compilata questa sezione parzialmente o completamente, puoi esaminare sul lato destro, in Il tuo prompt, il breve paragrafo ottenuto da queste impostazioni. Viene utilizzato durante la generazione delle risposte.
Prompt per la selezione e la sintesi del modello di datastore
Quando viene elaborata una query dell'utente, l'agente esegue una ricerca negli archivi di dati per trovare fonti valide. L'agente invia quindi la query dell'utente e le origini trovate all'LLM, che esegue un riepilogo.
Puoi selezionare il modello da utilizzare per il riepilogo e, se vuoi, fornire il tuo prompt.
Seleziona il modello generativo
Puoi selezionare il modello generativo utilizzato da un agente datastore per la richiesta di generazione di riepiloghi. La seguente tabella contiene le opzioni disponibili:
Identificatore modello | Supporto delle lingue |
---|---|
Predefinito | Questa è la configurazione attualmente consigliata ed è soggetta a modifiche nel tempo. Se utilizzi questa opzione, potresti notare cambiamenti nel comportamento degli agenti (probabili miglioramenti). Per una maggiore coerenza nel comportamento dell'agente, seleziona un modello specifico. |
gemini-1.0-pro-001 | Disponibile in tutte le lingue supportate. |
gemini-1.5-flash-001 | Disponibile in tutte le lingue supportate. |
gemini-1.5-flash-002 | Disponibile in tutte le lingue supportate. |
Personalizzare la richiesta di riepilogo
Puoi fornire il tuo prompt per la chiamata LLM di riepilogo. Il prompt è un modello di testo che può contenere segnaposto predefiniti. I segnaposto verranno sostituiti con i valori appropriati in fase di esecuzione e il testo finale verrà inviato all'LLM.
I segnaposto sono i seguenti:
$original-query
: il testo della query dell'utente.$rewritten-query
: Dialogflow utilizza un modulo di riscrittura per riscrivere la query utente originale in un formato più preciso.$sources
: Dialogflow utilizza Enterprise Search per cercare le fonti in base alla query dell'utente. Le origini trovate vengono visualizzate in un formato specifico:[1] title of first source content of first source [2] title of second source content of second source
$end-user-metadata
: le informazioni sull'utente che invia la query vengono visualizzate nel seguente formato:The following additional information is available about the human: { "key1": "value1", "key2": "value2", ... }
$conversation
: la cronologia conversazione viene visualizzata nel seguente formato:Human: user's first query AI: answer to user's first query Human: user's second query AI: answer to user's second query
${conversation USER:"<user prefix>" AI:"<agent prefix>" TURNS:<turn count>}
: una versione con parametri del segnaposto$conversation
. Puoi personalizzare il prefisso dell'utente finale (USER
), il prefisso dell'agente (AI
) e il numero di svolte precedenti da includere (TURNS
). Tutti i valori del parametro segnaposto devono essere specificati.Ad esempio,
${conversation USER:"Human says:" AI:"Agent says:" TURNS:1}
. La cronologia delle conversazioni viene visualizzata come segue:Human says: user's first query Agent says: answer to user's first query
Un prompt personalizzato deve indicare all'LLM di restituire "NOT_ENOUGH_INFORMATION" quando non può fornire una risposta. In questo caso, l'agente attiverà un evento di mancata corrispondenza.
Ad esempio:
Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+ Answer the Human's query and make sure you mention all relevant details from
the sources, using exactly the same words as the sources if possible.
+ The answer must be based only on the sources and not introduce any additional
information.
+ All numbers, like price, date, time or phone numbers must appear exactly as
they are in the sources.
+ Give as comprehensive answer as possible given the sources. Include all
important details, and any caveats and conditions that apply.
+ The answer MUST be in English.
+ Don't try to make up an answer: If the answer cannot be found in the sources,
you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.
Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.
Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?
Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.
Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION
Begin! Let's work this out step by step to be sure we have the right answer.
Sources:
$sources
$end-user-metadata
$conversation
Human: $original-query
AI:
Valore alternativo del datastore
Questa sezione contiene le seguenti impostazioni:
- Link di riserva: mostra il link più appropriato se l'agente non riesce a fornire una risposta.
- Attiva l'IA generativa: consente allo datastore di utilizzare l'AI generativa per generare risultati.