Gli agenti hanno molte impostazioni che influiscono sul comportamento. Ogni console fornisce impostazioni diverse.
Impostazioni dell'agente della console Dialogflow CX
Per accedere alle impostazioni dell'agente:
Console
- Apri la console Dialogflow CX.
- Scegli il tuo progetto Google Cloud.
- Seleziona il tuo agente.
- Fai clic su Impostazioni agente.
- Aggiorna le impostazioni come preferisci.
- Fai clic su Salva.
API
Consulta i metodi get
e patch/update
per il tipo Agent
.
Seleziona un protocollo e una versione per il riferimento all'agente:
Protocollo | V3 | V3beta1 |
---|---|---|
REST | Risorsa agente | Risorsa agente |
RPC | Interfaccia dell'agente | Interfaccia dell'agente |
C++ | AgentsClient | Non disponibile |
C# | AgentsClient | Non disponibile |
Vai | AgentsClient | Non disponibile |
Java | AgentsClient | AgentsClient |
Node.js | AgentsClient | AgentsClient |
PHP | Non disponibile | Non disponibile |
Python | AgentsClient | AgentsClient |
Ruby | Non disponibile | Non disponibile |
Le sottosezioni seguenti descrivono le diverse categorie di impostazioni dell'agente.
Impostazioni generali
Per gli agenti sono disponibili le seguenti impostazioni generali:
-
Un nome leggibile per l'agente.
-
Il fuso orario predefinito per l'agente.
-
La lingua predefinita supportata dall'agente. Una volta creato un agente, la lingua predefinita non può essere modificata. Tuttavia, puoi eseguire le seguenti operazioni:
- Esporta l'agente in formato JSON.
- Decomprimi il file scaricato.
- Trova il file
agent.json
. - Aggiorna i campi
defaultLanguageCode
esupportedLanguageCodes
con i valori che preferisci. - Ripristina lo stesso agente o un agente diverso rispetto a quello del passaggio 1.
- Aggiorna le frasi di addestramento e i valori delle entità specifici per la lingua in base alle esigenze.
-
Bloccare l'agente
Indica se l'agente è bloccato. Un agente bloccato non può essere modificato.
-
Abilitare Cloud Logging
Indica se Cloud Logging è abilitato per l'agente.
Attivare il logging delle interazioni
Indica se vuoi che Google raccolga e memorizzi query degli utenti finali oscurate per il miglioramento della qualità.
Attivare l'oscuramento degli input utente finali in base al consenso
Se questa impostazione è attiva, ti consente di utilizzare un parametro di sessione speciale per controllare se gli input e i parametri degli utenti finali vengono oscurati dalla cronologia delle conversazioni e da Cloud Logging. Per impostazione predefinita, il parametro di sessione è
true
. Se questa impostazione è disattivata, non viene applicata alcuna oscuratura.Il consenso degli utenti viene raccolto utilizzando un parametro di sessione booleano:
$session.params.conversation-redaction
. Se questa impostazione è attivata e il parametro sessione è impostato sufalse
, non viene applicata alcuna oscurazione (continueranno a essere applicate altre strategie di oscuramento). Se questa impostazione è attivata e il parametro sessione è impostato sutrue
, viene applicata l'oscuramento.Un esempio di flusso di richiesta del consenso potrebbe essere: prima chiedi all'utente se vuole conservare l'input utente dell'utente finale e associa la risposta a due intent, uno "intent di conferma" e l'altro "intent di rifiuto". Imposta quindi il parametro sessione su
false
(nessuna oscurazione) nei valori preimpostati dei parametri del percorso "intent yes" in Esecuzione e sutrue
(si verifica l'oscuramento) nel valore preimpostato del parametro del percorso "intent no".
-
Attivare BigQuery Export
Indica se BigQuery Export è attivata.
Set di dati BigQuery
Il nome del set di dati BigQuery.
Tabella BigQuery
Il nome della tabella BigQuery.
Suggerimenti per le intenzioni
Puoi attivare i suggerimenti di intent.
Modello di payload personalizzato
In questa sezione puoi creare descrizioni e payload per i modelli di payload personalizzati.
Impostazioni ML
Gli agenti di conversazione (Dialogflow CX) utilizzano algoritmi di machine learning (ML) per comprendere gli input degli utenti finali, associarli agli intent ed estrarre dati strutturati. Conversational Agents (Dialogflow CX) apprende dalle frasi di addestramento che fornisci e dai modelli linguistici integrati in Conversational Agents (Dialogflow CX). In base a questi dati, viene creato un modello per prendere decisioni su quale intent deve essere associato all'input di un utente finale. Puoi applicare impostazioni di ML univoche per ogni flusso di un agente e il modello creato dagli agenti di conversazione (Dialogflow CX) è univoco per ogni flusso.
Sono disponibili le seguenti impostazioni di ML a livello di agente:
Consentire all'IA di correggere l'ortografia
Se questa opzione è attivata e l'input utente finale contiene un errore ortografico o grammaticale, un'intenzione verrà associata come se fosse scritta correttamente. La risposta al rilevamento dell'intenzione conterrà l'input utente finale corretto. Ad esempio, se un utente finale inserisce "Voglio una mela", la richiesta verrà elaborata come se l'utente finale avesse inserito "Voglio una mela". Questo vale anche per le corrispondenze che coinvolgono entità di sistema e personalizzate.
La correzione ortografica è disponibile in inglese, francese, tedesco, spagnolo e italiano. È disponibile in tutte le regioni di Conversational Agents (Dialogflow CX).
Avvisi e best practice:
- La correzione ortografica non può correggere gli errori del riconoscimento vocale automatico (ASR), pertanto non è consigliabile attivarla per gli agenti che utilizzano input ASR.
- È possibile che l'input corretto corrisponda all'intent sbagliato. Puoi risolvere il problema aggiungendo frasi con mancata corrispondenza comune agli esempi negativi.
- La correzione ortografica aumenta leggermente il tempo di risposta dell'agente.
- Se un agente è definito utilizzando un gergo specifico del dominio, le correzioni potrebbero non essere auspicabili.
Sono disponibili le seguenti impostazioni ML specifiche per il flusso:
-
Può trattarsi di uno dei seguenti:
- NLU avanzata (impostazione predefinita): tecnologia NLU avanzata. Questo tipo di NLU funziona meglio rispetto allo standard, in particolare per agenti e flussi di grandi dimensioni.
- NLU standard: tecnologia NLU standard. Non riceveranno più miglioramenti della qualità o nuove funzionalità.
-
Se attivata, la formazione del flusso viene eseguita ogni volta che viene aggiornato con la console. Per i flussi di grandi dimensioni, questo potrebbe causare ritardi nell'interfaccia utente della console, pertanto ti consigliamo di disattivare questa impostazione e di addestrare manualmente in base alle esigenze per i flussi di grandi dimensioni.
-
Per filtrare i risultati falsi positivi e ottenere comunque una varietà di input in linguaggio naturale corrispondenti per l'agente, puoi ottimizzare la soglia di classificazione del machine learning. Questa impostazione controlla l'affidabilità minima del rilevamento dell'intenzione richiesta per una corrispondenza all'intenzione.
Se il punteggio di confidenza per una corrispondenza dell'intento è inferiore al valore della soglia, verrà invocato un evento di mancata corrispondenza.
Puoi impostare un valore di soglia di classificazione separato per ogni flusso in ogni lingua abilitata per l'agente. Questo approccio è utile per supportare lingue diverse che hanno il rendimento migliore con soglie di classificazione diverse. Per ulteriori informazioni sulla creazione di un agente multilingue, consulta la documentazione sugli agenti multilingue.
-
Indica se il flusso è stato addestrato dall'ultimo aggiornamento ai dati del flusso.
-
Utilizza questo pulsante per addestrare manualmente il flusso.
Impostazioni di IA generativa
Sono disponibili le seguenti impostazioni di AI generativa:
Generale
-
Elenco di frasi vietate per l'AI generativa. Se nel prompt o nella risposta generata viene visualizzata una frase vietata, la generazione non andrà a buon fine.
-
Configura i livelli di sensibilità dei filtri di sicurezza in base alle diverse categorie di AI responsabile (RAI). I contenuti verranno valutati in base alle seguenti quattro categorie:
Categoria Descrizione Incitamento all'odio Commenti negativi o dannosi rivolti all'identità e/o agli attributi protetti. Contenuti pericolosi Promuovono o consentono l'accesso a beni, servizi e attività dannosi Contenuti sessualmente espliciti Riferimenti ad atti sessuali o ad altri contenuti osceni Molestie Commenti dannosi, intimidatori, prepotenti o illeciti rivolti a un altro individuo I contenuti vengono bloccati in base alla probabilità di essere dannosi. Il livello di sensibilità può essere personalizzato scegliendo tra Blocca alcuni, Blocca alcuni e Blocca la maggior parte per ogni categoria. Puoi anche accedere all'opzione limitata Nessun blocco che disattiva i controlli RAI per la categoria dopo aver inviato una richiesta di conferma del rischio per il tuo progetto e aver ricevuto l'approvazione.
Per saperne di più, consulta Configurare gli attributi di sicurezza.
-
Puoi controllare l'impostazione Attiva controllo di sicurezza rapido per attivare i controlli di sicurezza rapidi. Se abilitato, l'agente tenterà di impedire gli attacchi di inserimento di prompt. Questi attacchi possono essere utilizzati per rivelare parti del prompt dell'agente o per fornire risposte che l'agente non dovrebbe fornire. Ciò viene ottenuto inviando un'altra richiesta LLM che verifica se la query dell'utente è potenzialmente dannosa.
-
Agente generativo
Selezione del modello generativo
Seleziona il modello utilizzato dalle funzionalità di generazione. Per ulteriori informazioni, consulta le versioni del modello.
Troncamento del contesto del playbook
La troncatura del contesto del playbook elimina alcuni turni precedenti dal prompt del playbook per evitare che le dimensioni del prompt aumentino con ogni turno sequenziale gestito dal playbook. Questa funzionalità offre un modo per limitare la crescita indesiderata delle dimensioni del prompt.
Normalmente, senza troncamento, ogni turno successivo verrà aggiunto alla "cronologia della conversazione" del prompt LLM, indipendentemente dal fatto che sia pertinente al turno corrente. Ciò può portare all'aumento delle dimensioni del prompt con ogni passaggio. Poiché gran parte del prompt è occupata dalla cronologia della conversazione, è possibile utilizzarne meno per gli esempi con pochi esempi, che potrebbero quindi essere eliminati. Alla fine, la richiesta potrebbe anche violare i limiti attuali dei token. Puoi aumentare le dimensioni dei token per adattarti a questo, ma tieni presente che l'aumento delle dimensioni dei prompt contribuisce anche alla latenza della risposta dell'LLM.
Il troncamento del contesto del playbook ti consente di impostare una percentuale massima del budget per i token da riservare alla cronologia delle conversazioni. I turni di conversazione vengono conservati nell'ordine dal più recente al meno recente. Questa impostazione può aiutarti a evitare il superamento dei limiti di token. Indipendentemente dall'impostazione scelta, vengono conservati almeno due turni di conversazione, dall'ordine più recente a quello meno recente.
Devi prima impostare un limite di token prima di poter modificare questa impostazione.
Importante: l'eliminazione del contesto potrebbe causare la perdita involontaria di alcuni parametri se fanno parte di svolte eliminate. Valuta attentamente le interazioni con i playbook dopo aver attivato questa opzione.
Il budget di input dei token viene utilizzato anche da:
- Istruzioni e esempi di sistema: aggiunti automaticamente al prompt. Questo comportamento non può essere modificato.
- Istruzioni e obiettivi del playbook: tutte le istruzioni e gli obiettivi che scrivi verranno aggiunti al prompt nella loro interezza.
- Esempi di playbook con pochi esempi: vengono aggiunti in ordine (per impostazione predefinita) o da un algoritmo scelto da te (ad esempio l'ordinamento per corrispondenza migliore dell'espressione regolare). Gli esempi vengono selezionati in modo da rientrare nel budget per i token di input dopo l'inclusione di tutti gli altri elementi.
- Cronologia conversazione composta da frasi di utenti e agenti, contesto di transizione di flussi e playbook, chiamate e output degli strumenti nella stessa sessione di tutti i turni precedenti gestiti in sequenza dal playbook corrente.
Generative Fallback
Configurazione dei prompt di testo
Consulta Piano di riserva generativo: definisci il tuo prompt.
Datastore
Consulta Impostazioni dell'agente del datastore.
Impostazioni di IVR e voce
Sono disponibili le seguenti impostazioni di sintesi vocale e IVR:
-
-
Puoi selezionare la lingua e la voce utilizzate per la sintesi vocale.
Puoi attivare la voce personalizzata per il tuo agente selezionando l'opzione di voce personalizzata dal riquadro di selezione della voce e specificando il nome della voce personalizzata nel campo corrispondente. Il nome della voce personalizzata deve seguire il seguente pattern:
projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME
.- Se utilizzi un gateway di telefonia, assicurati che all'account di servizio Agente di servizio Dialogflow
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
sia stato concesso il ruolo "Predictore AutoML" nel tuo progetto vocale personalizzato. - Per le chiamate API regolari, assicurati che all'account di servizio utilizzato per chiamare gli agenti conversazionali (Dialogflow CX) sia stato concesso il ruolo "Predictore AutoML" nel progetto vocale personalizzato.
- Se utilizzi un gateway di telefonia, assicurati che all'account di servizio Agente di servizio Dialogflow
-
-
Attivare l'adattamento vocale automatico
Consulta Adattamento vocale automatico.
Impostazioni avanzate di sintesi vocale
Per informazioni dettagliate sulle opzioni di sintesi vocale avanzate, consulta le guide sulle impostazioni avanzate di sintesi vocale.
DTMF
Per ulteriori informazioni, consulta DTMF per le integrazioni di telefonia.
Multimodale
Vedi Assistente chiamate.
Impostazioni di condivisione
Consulta Controllo dell'accesso.
Impostazioni delle lingue
Aggiungi un'altra lingua supportata all'agente. Per l'elenco completo delle lingue, consulta il riferimento alle lingue.
Rilevamento automatico della lingua
Quando configuri il rilevamento automatico della lingua, l'agente di chat rileva automaticamente la lingua dell'utente finale e passa a quella lingua. Per maggiori dettagli, consulta la documentazione sul rilevamento automatico della lingua.
Impostazioni di sicurezza
Consulta Impostazioni di sicurezza.
Impostazioni avanzate
Al momento, l'unica impostazione avanzata riguarda l'analisi del sentiment.
Impostazioni della console di Agent Builder
Questa sezione descrive le impostazioni disponibili per le app agente.
Generale
Per le app agente sono disponibili le seguenti impostazioni generali:
-
Un nome leggibile per l'app dell'agente.
-
La regione dell'app agente.
-
Se è attivata, non sono consentite modifiche all'app agente.
Logging
Per le app agente sono disponibili le seguenti impostazioni di logging:
-
Se abilitata, i log verranno inviati a Cloud Logging.
Attivare la cronologia conversazioni
Se è attivata, sarà disponibile la cronologia delle conversazioni. Indica se vuoi che Google raccolga e memorizzi le query degli utenti finali oscurate per il miglioramento della qualità. Questa impostazione non influisce sull'utilizzo della cronologia delle conversazioni per generare le risposte degli agenti.
-
Se questa opzione è attivata, la cronologia delle conversazioni viene esportata in BigQuery. Deve essere attivata anche l'impostazione Attiva cronologia conversazioni.
GenAI
Per le app agente sono disponibili le seguenti impostazioni di AI generativa:
Selezione del modello generativo
Seleziona il modello generativo che gli agenti devono utilizzare per impostazione predefinita.
-
Seleziona il limite di token di input per il modello generativo. Si tratta della dimensione massima del token per l'input inviato al modello. A seconda del modello, un token può essere compreso tra un carattere e una parola. I limiti di token più piccoli hanno una latenza inferiore, ma le dimensioni degli input del modello sono limitate. I limiti di token più elevati hanno una latenza maggiore, ma le dimensioni di input del modello possono essere maggiori.
-
Seleziona il limite di token di output per il modello generativo. Si tratta della dimensione massima del token per l'output ricevuto dal modello. A seconda del modello, un token può essere compreso tra un carattere e una parola. I limiti di token più piccoli hanno una latenza inferiore, ma le dimensioni dell'output del modello sono limitate. I limiti di token più elevati hanno una latenza maggiore, ma le dimensioni dell'output del modello possono essere maggiori.
-
La temperatura di un LLM ti consente di controllare il livello di creatività delle risposte. Un valore basso fornisce risposte più prevedibili. Un valore elevato fornisce risposte più creative o casuali.
-
Elenco di frasi vietate per l'AI generativa. Se nel prompt o nella risposta generata viene visualizzata una frase vietata, l'agente restituirà una risposta di riserva.
-
Configura i livelli di sensibilità dei filtri di sicurezza in base alle diverse categorie di AI responsabile (RAI). I contenuti verranno valutati in base alle seguenti quattro categorie:
Categoria Descrizione Incitamento all'odio Commenti negativi o dannosi rivolti all'identità e/o agli attributi protetti. Contenuti pericolosi Promuovono o consentono l'accesso a beni, servizi e attività dannosi Contenuti sessualmente espliciti Riferimenti ad atti sessuali o ad altri contenuti osceni Molestie Commenti dannosi, intimidatori, prepotenti o illeciti rivolti a un altro individuo I contenuti vengono bloccati in base alla probabilità di essere dannosi. Il livello di sensibilità può essere personalizzato scegliendo tra Blocca pochi (blocca solo le istanze di contenuti dannosi con probabilità elevata), Blocca alcuni (istanze con probabilità media e alta) e Blocca la maggior parte (probabilità bassa, media e alta) per ogni categoria. Puoi anche accedere all'opzione limitata Nessun blocco che disattiva i controlli RAI per la categoria dopo aver inviato una richiesta di conferma del rischio per il tuo progetto e aver ricevuto l'approvazione.
Per saperne di più, consulta Configurare gli attributi di sicurezza.
-
Puoi controllare l'impostazione Attiva controllo di sicurezza rapido per attivare i controlli di sicurezza rapidi. Se abilitato, l'agente tenterà di impedire gli attacchi di inserimento di prompt. Questi attacchi possono essere utilizzati per rivelare parti del prompt dell'agente o per fornire risposte che l'agente non dovrebbe fornire. Ciò viene ottenuto inviando un'altra richiesta LLM che verifica se la query dell'utente è potenzialmente dannosa.
Git
Queste impostazioni forniscono un'integrazione di Git. Segui le istruzioni per configurare l'integrazione.