Scenari di test

Puoi utilizzare la funzionalità di test integrata per scoprire bug e prevenire le regressioni. Per testare l'agente, crea scenari di test utilizzando simulatore per definire gli casi di test d'oro, ed esegui gli scenari di test in base alle tue esigenze. L'esecuzione di un test verifica che le risposte dell'agente non siano cambiate per gli input dell'utente finale definiti nel caso di test.

Le istruzioni riportate di seguito mostrano come utilizzare la console, ma la stessa funzionalità è disponibile anche nell'API.

Impostazioni del simulatore

Quando apri il simulatore per la prima volta, devi selezionare un ambiente agente o le versioni dei flussi e un flusso attivo. Nella maggior parte dei casi, devi utilizzare l'ambiente di bozza e il flusso di avvio predefinito.

Puoi anche attivare o disattivare le chiamate webhook in qualsiasi momento con il pulsante di attivazione/disattivazione del webhook. La disattivazione dei webhook è utile durante la definizione degli scenari di test.

Input del simulatore

Durante l'interazione con il simulatore, fornisci input utente finale sotto forma di testo, premi Invio o fai clic Invia . Oltre al testo normale, puoi scegliere tipi di input alternativi con il selettore di input :

  • Parametro: Inserisci un parametro valore. Puoi fornire nuovi parametri o fornire valori preimpostati per parametri esistenti.
  • Evento: invoca un evento.
  • DTMF: invia input di segnalazione multifrequenza a due toni (Touch-Tone) per le interazioni telefoniche.

Creare un caso di test

Per creare una conversazione:

  1. Apri la console Dialogflow CX.
  2. Scegli il tuo progetto.
  3. Seleziona il tuo agente.
  4. Fai clic su Agente di test per aprire il simulatore.
  5. Chatta con l'agente per creare una conversazione che riguardi la funzionalità che vuoi testare. Per ogni turno, verifica i valori corretti per l'intent attivato la risposta dell'agente, la pagina attiva e i parametri di sessione.

Screenshot del simulatore.

Per salvare una conversazione come scenario di test:

  1. Fai clic sull' Salva .
  2. Inserisci un nome visualizzato per lo scenario di test. Ogni scenario di test deve avere un nome visualizzato univoco.
  3. (Facoltativo) Specifica un nome per il tag. I tag consentono di organizzare gli scenari di test. Tutti i tag devono iniziare con un "#".
  4. (Facoltativo) Fornisci una nota che descriva lo scopo del test case.
  5. Se vuoi, seleziona i parametri da monitorare nel caso di test. Viene fornito un elenco di parametri suggeriti. Puoi anche inserire altri parametri da monitorare. Se selezioni i parametri di monitoraggio, la verifica del parametro viene eseguita durante l'esecuzione del caso di test. Per ulteriori dettagli sull'affermazione del parametro, consulta la sezione Eseguire i casi di test.
  6. Fai clic su Salva per salvare il caso di test.

Esegui scenari di test

Per visualizzare tutti i casi di test per un agente, fai clic su Test case nella scheda Gestisci. La tabella dei casi di test mostra il nome del test, i tag, la data e l'ambiente di test più recenti e il risultato del test più recente.

Per eseguire scenari di test:

  1. Seleziona gli scenari di test che vuoi eseguire e fai clic su Esegui. In alternativa, puoi fare clic su Esegui tutti gli scenari di test.
  2. Seleziona l'ambiente in cui vuoi eseguire gli scenari di test.
  3. I test vengono avviati e puoi visualizzare lo stato nella coda di attività. Il risultato del test verrà aggiornato al termine.

Per visualizzare il risultato dettagliato del test, fai clic sullo scenario di test. Il caso di test di riferimento e le conversazioni della run più recente vengono mostrate una accanto all'altra.

Screenshot del simulatore.

Puoi fare clic sul turno della conversazione di qualsiasi agente per vedere i dettagli della svolta. Il motore di test controlla i seguenti tipi di dati passo passo per valutare il risultato del test:

  • Dialogo con l'agente:

    Per ogni turno di conversazione, il dialogo dell'agente viene confrontato dall'esecuzione di riferimento a quella più recente. In caso di differenze, viene visualizzato un avviso. Queste differenze non impediscono il superamento di un test, poiché il dialogo con l'agente spesso varia a seconda dello stesso stato.

  • Intention corrispondente:

    Affinché un test venga superato, l'intent corrispondente deve essere lo stesso per ogni turno.

  • Pagina corrente:

    Affinché un test venga superato, la pagina attiva deve essere la stessa per ogni turno.

  • Parametri di sessione:

    Se hai aggiunto parametri di monitoraggio durante la creazione del caso di test, il motore di test controllerà i parametri di sessione corrispondenti e non supererà il test se sono presenti parametri mancanti/inaspettati o mancano corrispondenze dei valori dei parametri.

In alcuni casi, un caso di test potrebbe avere un errore previsto a causa di un agente aggiornato. Se la conversazione nell'ultima esecuzione riflette le modifiche previste, puoi fare clic su Salva come oro per sovrascrivere lo caso di test aureo.

Modifica scenari di test

Per modificare un caso di test, selezionalo dalla tabella Test case, quindi fai clic sull'icona di modifica accanto al nome del caso di test. Viene visualizzata la finestra di dialogo Aggiorna casi di test.

Per modificare i metadati e le impostazioni dello scenario di test, fai clic sulla scheda Impostazioni.

  1. Puoi modificare i campi Nome scenario di test, Tag e Nota oppure aggiungerne di nuovi parametri di monitoraggio.

  2. Fai clic su Salva.

Per modificare l'input utente per il caso di test, fai clic sulla scheda Input utente.

  1. Aggiungi, rimuovi o modifica gli input utente in formato JSON.

  2. Fai clic su Conferma. Viene avviata un'esecuzione automatica di test e viene aggiornata la conversazione viene visualizzato al termine dell'esecuzione del test.

  3. Fai clic su Salva per sovrascrivere lo scenario di test golden originale oppure fai clic su Salva come per creare un nuovo scenario di test con le modifiche.

Visualizza copertura del test

Per visualizzare un report sulla copertura dei test per tutti i casi di test, fai clic su Copertura.

La pagina Copertura include le seguenti schede:

  • La copertura delle transizioni viene determinata per tutti gli handler di stato (esclusi i gruppi di route) con una destinazione di transizione esercitata dal test case. Nella tabella sono elencati il flusso/la pagina di origine e il flusso/la pagina di destinazione della transizione.

  • La copertura di intent è determinata per tutti intent che corrispondono allo scenario di test.

  • La copertura dei gruppi di percorsi viene determinata per tutti i gruppi di percorsi corrispondenti al caso di test.

Importazione ed esportazione di scenari di test

Per esportare gli scenari di test:

  1. Seleziona gli scenari di test e fai clic su Esporta. oppure fai clic su Esporta tutti gli scenari di test.
  2. Fai clic su Scarica come file locale. oppure fornisci l'URI di un bucket Cloud Storage e fai clic Esporta in Google Cloud Storage.

Quando importi scenari di test, Gli agenti conversazionali (Dialogflow CX) creano sempre nuovi scenari di test per l'agente di destinazione senza sovrascrivere eventuali scenari di test esistenti. Per importare gli scenari di test:

  1. Fai clic su Importa.
  2. Scegli un file locale o fornisci un URI del bucket Cloud Storage.