Impostazioni dell'agente del datastore

Il seguente agente del datastore impostazioni.

Grounding

Per ogni risposta generata dai contenuti dei datastore connessi, viene visualizzata una il livello di confidenza, che misura il livello di confidenza che tutte le informazioni nella risposta sia supportata dalle informazioni nei datastore. Puoi selezionare il livello di confidenza più basso consentito e l'agente non restituirà risposte inferiori di quel livello.

È possibile scegliere tra 5 livelli di confidenza: molto basso, basso, medio, alto e molto alto.

Puoi anche applicare un filtro euristica di grounding. Se attivata, le risposte che presentano contenuti probabilmente imprecisi sulla base di allucinazioni comuni in modo soppresso.

Prompt datastore

Puoi aggiungere ulteriori informazioni sull'agente per migliorare la qualità delle risposte generate dai contenuti del datastore e renderle più il tuo brand:

  • Nome agente: come deve chiamarsi l'agente. Se non viene configurato, verrà utilizzato il valore predefinito Assistente IA.
  • Identità dell'agente: quale sarà l'utente tipo dell'agente. Se non viene configurato, verrà utilizzato il valore predefinito Assistente IA.
  • Nome dell'azienda: impostato sul nome della tua azienda. Dovrebbe essere già stato eseguito è stato impostato come parte del flusso di creazione dell'agente, ma è regolabile in base alle esigenze. it è consigliabile impostare correttamente questo campo (e soprattutto non lasciarlo vuoto), per evitare che la qualità delle risposte generate risenta.
  • Descrizione dell'azienda Una breve descrizione di ciò che fa l'azienda o offerte.
  • Ambito agente: dove deve essere utilizzato l'agente. Se esci se non viene configurato, verrà utilizzato il valore predefinito sul sito web dell'azienda.

Dopo aver compilato questa sezione parzialmente o completamente, puoi controllare a destra, sotto Il tuo prompt, il breve paragrafo derivato queste impostazioni. Questo viene utilizzato come parte della generazione delle risposte.

Richiesta di selezione e riassunto del modello di datastore

Quando viene elaborata la query di un utente, l'agente esegue una ricerca nei datastore per trovare buone fonti. L'agente invia poi la query dell'utente e le origini trovate a sull'LLM, che esegue un riassunto.

Puoi selezionare il modello da utilizzare per il riassunto e, facoltativamente, fornire il tuo un prompt personalizzato.

Seleziona modello generativo

Puoi selezionare il modello generativo utilizzato da un agente del datastore per richiesta di riassunto generativo. La tabella seguente contiene le opzioni:

Identificatore modello Supporto delle lingue
Predefinito Questa è la configurazione attualmente consigliata ed è soggetta a modifiche nel tempo. Se utilizzi questa opzione, potresti riscontrare cambiamenti nel comportamento dell'agente (probabili miglioramenti). Se vuoi maggiore coerenza nel comportamento dell'agente, seleziona un modello specifico.
text-bison@002 Disponibile in tutte le lingue supportate.
gemini-1.0-pro-001 Disponibile in tutte le lingue supportate.
gemini-1.5-flash-001 (anteprima) Disponibile in tutte le lingue supportate. Nota: questa configurazione non è ancora stabile e potrebbe cambiare nel tempo.

Personalizza il prompt di riassunto

Puoi fornire il tuo prompt per la chiamata LLM di riepilogo. Il prompt è un che può contenere segnaposto predefiniti. I segnaposto sono sostituiti con i valori appropriati in fase di runtime e verrà inviato il testo finale all'LLM.

I segnaposto sono i seguenti:

  • $original-query: testo della query dell'utente.
  • $rewritten-query: Dialogflow utilizza un modulo di riscrittura per riscrivere la query originale dell'utente in un formato più preciso.
  • $sources: Dialogflow utilizza Enterprise Search per cercare origini in base alla query dell'utente. Le origini trovate vengono visualizzate in una finestra formato:

    [1] title of first source
    content of first source
    [2] title of second source
    content of second source
    
  • $end-user-metadata: le informazioni sull'utente che invia la query sono visualizzato nel seguente formato:

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    
  • $conversation: la cronologia della conversazione viene visualizzata nel seguente modo: formato:

    Human: user's first query
    AI: answer to user's first query
    Human: user's second query
    AI: answer to user's second query
    
  • ${conversation USER:"<user prefix>" AI:"<agent prefix>" TURNS:<turn count>}: una versione con parametri del segnaposto $conversation. Tu può personalizzare il prefisso dell'utente finale (USER), il prefisso dell'agente (AI) e numero di turni precedenti da includere (TURNS). Tutti i parametri segnaposto è necessario specificare i valori.

    Ad esempio, ${conversation USER:"Human says:" AI:"Agent says:" TURNS:1}. La cronologia della conversazione viene visualizzata come:

    Human says: user's first query
    Agent says: answer to user's first query
    

Un prompt personalizzato deve indicare all'LLM di restituire "NOT_ENOUGH_INFORMATION" quando non può fornire una risposta. In questo caso, l'agente richiama una risposta di mancata corrispondenza dell'evento.

Ad esempio:

Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+   Answer the Human's query and make sure you mention all relevant details from
  the sources, using exactly the same words as the sources if possible.
+   The answer must be based only on the sources and not introduce any additional
  information.
+   All numbers, like price, date, time or phone numbers must appear exactly as
  they are in the sources.
+   Give as comprehensive answer as possible given the sources. Include all
  important details, and any caveats and conditions that apply.
+   The answer MUST be in English.
+   Don't try to make up an answer: If the answer cannot be found in the sources,
  you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.

Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.

Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?

Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.

Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION

Begin! Let's work this out step by step to be sure we have the right answer.

Sources:
$sources

$end-user-metadata
$conversation
Human: $original-query
AI:

Datastore di riserva

Questa sezione contiene le seguenti impostazioni:

  • Link di riserva: mostra il link più appropriato se l'agente non riesce a produrre una risposta.
  • Abilita l'IA generativa: consenti al datastore di utilizzare l'AI generativa quando generando risultati.