Scénarios de test

Vous pouvez utiliser la fonctionnalité de test intégrée pour détecter les bugs et éviter les régressions. Pour tester votre agent, créez des scénarios de test à l'aide de la méthodesimulateur pour définirscénarios de test dorés , puis vous exécutez des scénarios de test si nécessaire. Une exécution de test vérifie que les réponses de l'agent n'ont pas changé pour les entrées utilisateur définies dans le scénario de test.

Les instructions ci-dessous montrent comment procéder à l'aide de la console, mais vous pouvez retrouver les mêmes fonctionnalités dans l'API.

Paramètres du simulateur

Lorsque vous ouvrez le simulateur pour la première fois, vous devez sélectionner un environnement pour l'agent et un flux actif. Dans la plupart des cas, vous devez utiliser l'environnement brouillon et le flux de démarrage par défaut.

Vous pouvez également activer ou désactiver les appels webhook à tout moment à l'aide du bouton d'activation des webhooks . Il est recommandé de désactiver les webhooks lors de la définition des scénarios de test.

Entrées du simulateur

Lorsque vous travaillez sur le simulateur, vous devez saisir les entrées utilisateur sous forme de texte, puis appuyer sur Entrée ou cliquer sur le bouton "Envoyer" . En plus du texte brut, vous pouvez choisir d'autres types d'entrée avec le sélecteur d'entrée  :

  • Paramètre : injecte une valeur de paramètre. Vous pouvez fournir de nouveaux paramètres ou donner des valeurs prédéfinies aux paramètres existants.
  • Événement : appelle un événement.
  • Dtmf : envoi d'une entrée de signal à plusieurs fréquences (Touch-Tone) pour les interactions téléphoniques

Créer un scénario de test

Pour créer une conversation, procédez comme suit :

  1. Ouvrez la console Dialogflow CX.
  2. Choisissez votre projet GCP.
  3. Sélectionnez votre agent.
  4. Cliquez sur Test Agent (Tester l'agent) pour ouvrir le simulateur.
  5. Conversez avec l'agent pour créer une conversation couvrant la fonctionnalité que vous souhaitez tester. Pour chaque tour, vérifiez que les valeurs de l'intent déclenché, de la réponse de l'agent, de la page active et des paramètres de session sont correctes.

Capture d'écran du simulateur.

Pour enregistrer une conversation en tant que scénario de test, procédez comme suit :

  1. Cliquez sur le bouton .
  2. Saisissez un nom à afficher pour le scénario de test. Chaque scénario de test doit avoir un nom à afficher unique.
  3. Indiquez éventuellement un nom de tag. Les tags vous aident à organiser vos scénarios de test. Tous les tags doivent commencer par un "#".
  4. Si vous le souhaitez, vous pouvez ajouter une note décrivant l'objectif du scénario de test.
  5. Vous pouvez également sélectionner les paramètres dont vous souhaitez effectuer le suivi dans le scénario de test. Une liste de paramètres suggérés est fournie. Vous pouvez également spécifier d'autres paramètres à suivre. Si vous sélectionnez des paramètres à suivre, leur assertion est vérifiée lors de l'exécution du scénario de test. Pour plus de détails sur l'assertion des paramètres, consultez la section Exécuter des scénarios de test.
  6. Cliquez sur Save (Enregistrer) pour enregistrer le scénario de test.

Exécuter des scénarios de test

Pour afficher tous les scénarios de test d'un agent, cliquez sur Scénarios de test dans l'onglet Gérer. Le tableau des scénarios de test indique le nom du test, ses tags, ainsi que l'environnement, la date et le résultat de la dernière exécution.

Pour exécuter des scénarios de test, procédez comme suit :

  1. Sélectionnez les scénarios de test que vous souhaitez exécuter, puis cliquez sur Run (Exécuter). Vous pouvez également cliquer sur Run all test cases (Exécuter tous les scénarios de test).
  2. Sélectionnez l'environnement sur lequel vous souhaitez exécuter les scénarios de test.
  3. Les tests commencent à s'exécuter et leur état s'affiche dans la file d'attente. Le résultat des tests est mis à jour une fois leur exécution terminée.

Pour afficher le résultat détaillé des tests, cliquez sur le scénario de test. Le cas de test doré et les conversations de dernière exécution sont affichés côte à côte.

Capture d'écran du simulateur.

Vous pouvez cliquer sur le tour de conversation de l'un des agents pour afficher les détails de ce tour. Le moteur de test vérifie alors les types de données suivants tour à tour pour évaluer les résultats du test :

  • Dialogue de l'agent :

    Pour chaque tour de conversation, la boîte de dialogue de l'agent est comparée à l'or. En cas de différence, un avertissement s'affiche. Ces différences n'empêchent pas le test d'un test, car les dialogues de l'agent varient souvent pour le même état.

  • Intent mis en correspondance :

    Pour qu'un test réussisse, il faut que, pour chaque tour, l'intent mis en correspondance soit identique à celui de l'original.

  • Page actuelle :

    Pour qu'un test réussisse, il faut que, pour chaque tour, la page active soit identique à celle de l'original.

  • Paramètres de session :

    Si vous avez ajouté des paramètres de suivi lorsque vous avez créé le scénario de test, le moteur de test vérifie les paramètres de session correspondants et fait échouer le test s'il existe des paramètres manquants ou inattendus, ou encore des incohérences dans les valeurs de paramètres.

Dans certains cas, un scénario de test peut échouer de manière prévisible en raison de la mise à jour d'un agent. Si la conversation de la dernière exécution reflète les modifications attendues, vous pouvez cliquer sur Save as doré pour enregistrer le cas de test doré.

Modifier des scénarios de test

Pour modifier un scénario de test, sélectionnez-le dans le tableau Test scénarios, puis cliquez sur l'icône de modification située à côté du nom du cas. La boîte de dialogue Update Test Cases (Mettre à jour les scénarios de test) s'affiche.

Pour modifier les métadonnées et les paramètres du scénario de test, cliquez sur l'onglet Paramètres.

  1. Vous pouvez modifier les champs Nom du scénario de test, Tags et Remarque, ou ajouter de nouveaux paramètres de suivi.

  2. Cliquez sur Enregistrer.

Pour modifier les entrées utilisateur du scénario de test, cliquez sur l'onglet Entrée de l'utilisateur.

  1. Ajoutez, supprimez ou modifiez les entrées utilisateur au format JSON.

  2. Cliquez sur Confirmer. Un test de test automatique commence et la conversation mise à jour s'affiche une fois l'exécution du test terminée.

  3. Cliquez sur Enregistrer pour remplacer le cas d'origine du test doré ou cliquez sur Enregistrer sous pour créer un nouveau scénario de test avec les modifications.

Afficher la couverture de test

Pour afficher un rapport de couverture de test pour tous les scénarios de test, cliquez sur Couverture.

La page Couverture comprend les onglets suivants:

  • La couverture des transitions est déterminée pour tous les gestionnaires d'état (hors groupes de routes) dotés d'une cible de transition exécutée par le scénario de test. Le flux source, la page et le flux/la page de transition cible sont répertoriés dans le tableau.

  • La couverture des intents est déterminée pour tous les intents correspondant au scénario de test.

  • La couverture des groupes de routes est déterminée pour tous les groupes de routes correspondant au scénario de test.

Scénarios d'importation et d'exportation

Pour exporter des scénarios de test, procédez comme suit :

  1. Sélectionnez des scénarios de test, puis cliquez sur Export (Exporter) ou cliquez sur Export all test cases (Exporter tous les scénarios de test).
  2. Cliquez sur Download to local file (Télécharger dans un fichier local) ou indiquez un URI de bucket Cloud Storage, puis cliquez sur Export to Google Cloud Storage (Exporter vers Google Cloud Storage).

Pour importer des scénarios de test, procédez comme suit :

  1. Cliquez sur Import (Importer).
  2. Sélectionnez un fichier local ou fournissez un URI de bucket Cloud Storage.