Scenari di test

Puoi utilizzare la funzionalità di test integrata per rilevare bug e prevenire le regressioni. Per testare l'agente, puoi creare scenari di test utilizzando il simulatore per definire gli scenari di test dorati, quindi puoi eseguire scenari di test in base alle tue esigenze. L'esecuzione di un test verifica che le risposte dell'agente non siano cambiate per gli input dell'utente finale definiti nello scenario di test.

Le istruzioni riportate di seguito mostrano come utilizzare la console, ma puoi trovare la stessa funzionalità anche nell'API.

Impostazioni del simulatore

Quando apri per la prima volta il simulatore, devi selezionare un ambiente agente o versioni di flusso e un flusso attivo. Nella maggior parte dei casi, devi utilizzare l'ambiente bozza e il flusso di avvio predefinito.

Puoi anche attivare o disattivare le chiamate webhook in qualsiasi momento con il pulsante di attivazione/disattivazione del webhook . La disattivazione dei webhook è utile per la definizione degli scenari di test.

Input del simulatore

Durante l'interazione con il simulatore, fornisci l'input utente finale come testo, quindi premi Invio o fai clic sul pulsante di invio . Oltre al testo normale, puoi scegliere tipi di input alternativi con il selettore di input :

  • Parametro: inserisci il valore di un parametro. Puoi fornire nuovi parametri o valori preimpostati per i parametri esistenti.
  • Evento: richiama un evento.
  • DTMF: invia un input di segnale multifrequenza a due toni (tono al tocco) per le interazioni di telefonia.

Crea uno scenario di test

Per creare una conversazione:

  1. Apri la console Dialogflow CX.
  2. Scegli il progetto Google Cloud.
  3. Seleziona l'agente.
  4. Fai clic su Test Agent (Agente di test) per aprire il simulatore.
  5. Chatta con l'agente per creare una conversazione che copra la funzionalità che desideri testare. A ogni svolta, verifica i valori corretti dell'intent attivato, della risposta dell'agente, della pagina attiva e dei parametri di sessione.

Screenshot del simulatore.

Per salvare una conversazione come scenario di test:

  1. Fai clic sul pulsante Salva .
  2. Inserisci un nome visualizzato dello scenario di test. Ogni scenario di test deve avere un nome visualizzato univoco.
  3. Facoltativamente, fornisci un nome per il tag. I tag consentono di organizzare gli scenari di test. Tutti i tag devono iniziare con "#".
  4. Se vuoi, fornisci una nota che descriva lo scopo dello scenario di test.
  5. (Facoltativo) Seleziona i parametri che vuoi monitorare nello scenario di test. Viene fornito un elenco di parametri suggeriti. Puoi anche inserire altri parametri da monitorare. Se selezioni i parametri di monitoraggio, l'asserzione del parametro viene controllata durante l'esecuzione dello scenario di test. Per ulteriori dettagli sull'asserzione dei parametri, consulta la sezione Esegui scenari di test.
  6. Fai clic su Salva per salvare lo scenario di test.

Esegui scenari di test

Per visualizzare tutti gli scenari di test per un agente, fai clic su Scenario di test nella scheda Gestisci. La tabella degli scenari di test mostra il nome del test, i tag, l'ambiente e l'ora del test più recenti e il risultato del test più recente.

Per eseguire scenari di test:

  1. Seleziona gli scenari di test che vuoi eseguire e fai clic su Esegui. In alternativa, puoi fare clic su Esegui tutti gli scenari di test.
  2. Seleziona l'ambiente su cui vuoi eseguire gli scenari di test.
  3. I test iniziano a essere eseguiti e puoi visualizzare lo stato nella coda di attività. Il risultato del test verrà aggiornato al termine dell'operazione.

Per visualizzare il risultato dei dettagli del test, fai clic sullo scenario di test. Lo scenario di test dorato e le conversazioni più recenti eseguite vengono mostrate affiancate.

Screenshot del simulatore.

Puoi fare clic sulla svolta conversazionale di qualsiasi agente per vedere i dettagli di quella svolta. Il motore di test controlla passo passo i seguenti tipi di dati per valutare il risultato del test:

  • Dialogo dell'agente:

    Per ogni svolta della conversazione, il dialogo con gli agenti viene confrontato dall'ultima esecuzione all'ultima esecuzione. In caso di differenze, viene visualizzato un avviso. Queste differenze non impediscono il superamento di un test, perché il dialogo con gli agenti varia spesso per lo stesso stato dell'agente.

  • Intenzione corrispondente:

    Per superare un test, l'intent per cui è stata rilevata una corrispondenza deve essere lo stesso per ogni turno.

  • Pagina corrente:

    Per superare un test, la pagina attiva deve essere la stessa in ogni svolta.

  • Parametri di sessione:

    Se hai aggiunto i parametri di monitoraggio al momento della creazione dello scenario di test, il motore di test controllerà i parametri di sessione corrispondenti e non supererà il test se sono presenti parametri mancanti/imprevisti o valore parametro non corrispondenti.

In alcune situazioni, uno scenario di test potrebbe avere un errore previsto dovuto a un agente aggiornato. Se la conversazione nell'ultima esecuzione riflette le modifiche previste, puoi fare clic su Salva come finali per sovrascrivere lo scenario di test dorato.

Modifica scenari di test

Per modificare uno scenario di test, selezionalo dalla tabella Scenari di test, quindi fai clic sull'icona di modifica accanto al nome dello scenario di test. Viene visualizzata la finestra di dialogo Aggiorna scenari di test.

Per modificare i metadati e le impostazioni dello scenario di test, fai clic sulla scheda Impostazioni.

  1. Puoi modificare i campi Nome dello scenario di test, Tag e Nota o aggiungere nuovi parametri di monitoraggio.

  2. Fai clic su Salva.

Per modificare l'input utente per lo scenario di test, fai clic sulla scheda Input utente.

  1. Aggiungi, rimuovi o modifica gli input utente in formato JSON.

  2. Fai clic su Conferma. Inizia un'esecuzione di test automatico e la conversazione aggiornata viene visualizzata al termine dell'esecuzione del test.

  3. Fai clic su Salva per sovrascrivere lo scenario di test finale originale oppure fai clic su Salva con nome per creare un nuovo scenario di test con le modifiche.

Visualizza copertura del test

Per visualizzare un report sulla copertura di test per tutti gli scenari di test, fai clic su Copertura.

La pagina Copertura include le seguenti schede:

  • La copertura delle transizioni viene determinata per tutti i gestori di stato (esclusi i gruppi di route) con un target di transizione applicato dallo scenario di test. Il flusso/la pagina del flusso di origine e la pagina/il flusso di destinazione della transizione sono elencati nella tabella.

  • La copertura degli intent viene determinata per tutti gli intent corrispondenti allo scenario di test.

  • La copertura dei gruppi di route viene determinata per tutti i gruppi di route che corrispondono allo scenario di test.

Importare ed esportare scenari di test

Per esportare gli scenari di test:

  1. Seleziona gli scenari di test e fai clic su Esporta o su Esporta tutti gli scenari di test.
  2. Fai clic su Scarica in file locale o fornisci l'URI di un bucket Cloud Storage e fai clic su Esporta in Google Cloud Storage.

Durante l'importazione degli scenari di test, Dialogflow crea sempre nuovi scenari di test per l'agente di destinazione e non sovrascrive eventuali scenari di test esistenti. Per importare scenari di test:

  1. Fai clic su Importa.
  2. Scegli un file locale o fornisci un URI del bucket Cloud Storage.