Puoi utilizzare la funzionalità di test integrata per scoprire bug e prevenire le regressioni. Per testare l'agente, crea scenari di test utilizzando simulatore per definire gli casi di test d'oro, ed esegui gli scenari di test in base alle tue esigenze. L'esecuzione di un test verifica che le risposte dell'agente non siano cambiate per gli input dell'utente finale definiti nel caso di test.
Le istruzioni riportate di seguito mostrano come utilizzare la console, ma puoi trovare la stessa funzionalità anche nell'API.
Impostazioni del simulatore
Quando apri il simulatore per la prima volta, devi selezionare un ambiente agente o le versioni dei flussi e un flusso attivo. Nella maggior parte dei casi, devi utilizzare l'ambiente di bozza e il flusso di avvio predefinito.
Puoi anche attivare o disattivare le chiamate webhook in qualsiasi momento con il pulsante di attivazione/disattivazione del webhook. La disattivazione dei webhook è utile durante la definizione degli scenari di test.
Input simulatore
Durante l'interazione con il simulatore, fornisci input utente finale sotto forma di testo, premi Invio o fai clic Invia
. Oltre al testo normale, puoi scegliere tipi di input alternativi con il selettore di input :- Parametro: Inserisci un parametro valore. Puoi fornire nuovi parametri o valori preimpostati per i parametri esistenti.
- Evento: Richiama un evento.
- DTMF: Invia segnalazione multifrequenza a due toni (tonalità) per le interazioni con la telefonia.
Creare un caso di test
Per creare una conversazione:
- Apri la console Dialogflow CX.
- Scegli il progetto.
- Seleziona l'agente.
- Fai clic su Test Agent (Testa agente) per aprire il simulatore.
- Chatta con l'agente per creare una conversazione che descrive la funzionalità che vuoi testare. Per ogni turno, verifica i valori corretti per l'intent attivato la risposta dell'agente, la pagina attiva e i parametri di sessione.
Per salvare una conversazione come scenario di test:
- Fai clic sul pulsante Salva.
- Inserisci un nome visualizzato dello scenario di test. Ogni scenario di test deve avere un nome visualizzato univoco.
- (Facoltativo) Specifica un nome per il tag. I tag ti aiutano a organizzare i casi di test. Tutti i tag devono iniziare con "#".
- Facoltativamente, puoi fornire una nota che descriva lo scopo dello scenario di test.
- Se vuoi, seleziona i parametri da monitorare nel caso di test. Viene fornito un elenco di parametri suggeriti. Puoi anche inserire altri parametri da monitorare. Se selezioni i parametri di monitoraggio, la verifica del parametro viene eseguita durante l'esecuzione del caso di test. Per ulteriori dettagli sull'asserzione dei parametri, consulta la Sezione Esegui scenari di test.
- Fai clic su Salva per salvare il caso di test.
Esegui scenari di test
Per visualizzare tutti gli scenari di test per un agente, Fai clic su Casi di test nella scheda Gestisci. La tabella dei casi di test mostra il nome del test, i tag, la data e l'ambiente di test più recenti e il risultato del test più recente.
Per eseguire gli scenari di test:
- Seleziona gli scenari di test che vuoi eseguire e fai clic su Esegui. In alternativa, puoi fare clic su Esegui tutti gli scenari di test.
- Seleziona l'ambiente in cui vuoi eseguire gli scenari di test.
- I test iniziano a essere eseguiti e puoi visualizzarne lo stato nella coda delle attività. Il risultato del test verrà aggiornato al termine dell'operazione.
Per visualizzare il risultato dettagliato del test, fai clic sullo scenario di test. Lo scenario di test d'oro e le conversazioni più recenti eseguite vengono mostrate affiancate.
Puoi fare clic sul turno della conversazione di qualsiasi agente per vedere i dettagli della svolta. Il motore di test controlla i seguenti tipi di dati in base al turno per valutare il risultato del test:
Dialogo con l'agente:
Per ogni turno di conversazione, il dialogo con gli agenti viene confrontato dall'oro all'ultima corsa. In caso di differenze, viene visualizzato un avviso. Queste differenze non impediscono il superamento di un test, poiché il dialogo con l'agente spesso varia a seconda dello stesso stato.
Intention corrispondente:
Affinché un test venga superato, l'intent corrispondente deve essere lo stesso per ogni turno.
Pagina corrente:
Affinché un test venga superato, la pagina attiva deve essere la stessa per ogni turno.
Parametri sessione:
Se hai aggiunto parametri di monitoraggio durante la creazione del caso di test, il motore di test controllerà i parametri di sessione corrispondenti e non supererà il test se sono presenti parametri mancanti/inaspettati o mancano corrispondenze dei valori dei parametri.
In alcune situazioni, uno scenario di test potrebbe avere un errore previsto a causa dell'aggiornamento dell'agente. Se la conversazione nell'ultima esecuzione riflette le modifiche previste, puoi fare clic su Salva come standard per sovrascrivere il caso di test standard.
Modifica scenari di test
Per modificare uno scenario di test, selezionalo dalla tabella Scenario di test, quindi fai clic sull'icona di modifica
accanto al nome nello scenario di test. Viene visualizzata la finestra di dialogo Aggiorna scenari di test.Per modificare i metadati e le impostazioni dello scenario di test, fai clic sulla scheda Impostazioni.
Puoi modificare i campi Nome scenario di test, Tag e Nota oppure aggiungerne di nuovi parametri di monitoraggio.
Fai clic su Salva.
Per modificare l'input utente per lo scenario di test, fai clic sulla scheda Input utente.
Aggiungi, rimuovi o modifica gli input utente in formato JSON.
Fai clic su Conferma. Viene avviata una prova automatica e la conversazione aggiornata viene visualizzata al termine della prova.
Fai clic su Salva per sovrascrivere lo scenario di test golden originale oppure fai clic su Salva come per creare un nuovo scenario di test con le modifiche.
Visualizza copertura del test
Per visualizzare un report Copertura del test per tutti gli scenari di test, fai clic su Copertura.
La pagina Copertura include le seguenti schede:
La copertura delle transizioni è determinata per tutte gestori di stato (esclusi i gruppi di route) con un target di transizione esercitato dallo scenario di test. Nella tabella sono elencati il flusso/la pagina di origine e il flusso/la pagina di destinazione della transizione.
La copertura di intent è determinata per tutti intent che corrispondono allo scenario di test.
La copertura dei gruppi di route è determinata per tutte le route gruppi corrispondenti al test per verificare se è così.
Importare ed esportare casi di test
Per esportare gli scenari di test:
- Seleziona i casi di test e fai clic su Esporta o su Esporta tutti i casi di test.
- Fai clic su Scarica come file locale. oppure fornisci l'URI di un bucket Cloud Storage e fai clic Esporta in Google Cloud Storage.
Quando importi scenari di test, Gli agenti conversazionali (Dialogflow CX) creano sempre nuovi scenari di test per l'agente di destinazione senza sovrascrivere eventuali scenari di test esistenti. Per importare scenari di test:
- Fai clic su Importa.
- Scegli un file locale o fornisci un URI del bucket Cloud Storage.