Tests

Les tests permettent de comparer les performances de plusieurs versions de flux (versions variantes) à une version de contrôle (généralement une version de production) tout en gérant le trafic en temps réel. Vous pouvez allouer une partie du trafic en direct à chaque version de flux et surveiller les métriques suivantes :

  • Contenues : nombre de sessions ayant atteint END_SESSION sans déclencher d'autres métriques ci-dessous. Disponible uniquement pour les agents utilisant une intégration téléphonique.
  • Taux de transfert d'agent en direct : nombre de sessions transférées à un agent en direct.
  • Taux de rappel : nombre de sessions redémarrées par un utilisateur final. Disponible uniquement pour les agents utilisant une intégration téléphonique.
  • Taux d'abandon : nombre de sessions abandonnées par un utilisateur final. Disponible uniquement pour les agents utilisant une intégration téléphonique.
  • Taux de fin de session : nombre de sessions ayant atteint END_SESSION.
  • Nombre total de non-correspondances : nombre total d'occurrences d'un événement de non-correspondance.
  • Nombre total de tours : nombre total de tours de conversation (une entrée de l'utilisateur final et une réponse de l'agent sont considérées comme un tour).
  • Nombre moyen de tours : nombre moyen de tours.

Préparation

Pour préparer un test, procédez comme suit :

  1. Décider quel flux sera utilisé pour le test. Vous ne pouvez pas exécuter plusieurs tests sur un même flux. Assurez-vous donc d'avoir partitionné votre agent en plusieurs flux.
  2. Créez plusieurs versions pour votre flux. Les différences entre chaque version peuvent être petites ou grandes, selon ce que vous souhaitez comparer.
  3. Déterminez la quantité de trafic qui sera allouée à votre test. Si vous testez des modifications mineures, vous pouvez commencer avec un trafic important. Pour les modifications importantes pouvant entraîner des perturbations, envisagez d'allouer une petite quantité de trafic à votre test.

Créer un test

Pour créer un test, procédez comme suit :

  1. Ouvrez la console Dialogflow CX.
  2. Sélectionnez votre projet GCP pour ouvrir le sélecteur d'agent.
  3. Sélectionnez votre agent pour ouvrir le générateur d'agents.
  4. Sélectionnez l'onglet Manage (Gérer).
  5. Cliquez sur Tests pour ouvrir le panneau "Tests".
  6. Sélectionnez l'onglet État.
  7. Cliquez sur Créer.
  8. Saisissez une description.
  9. Sélectionnez l'environnement à partir duquel vous souhaitez exécuter le test.
  10. Sélectionnez le flux du test.
  11. Vous pouvez éventuellement saisir le nombre de jours pendant lesquels le test s'arrêtera automatiquement.
  12. Saisissez la version du flux de contrôle et le pourcentage de trafic qui sera dirigé vers la version de contrôle.
  13. Saisissez une à quatre versions de flux variantes, ainsi que le pourcentage de trafic qui sera dirigé vers la version variante.
  14. Si vous le souhaitez, cliquez sur Activer le déploiement automatique et les étapes pour déployer progressivement le trafic vers le flux variant. Un test automatisé est basé sur des étapes, qui correspondent aux durées pendant lesquelles un pourcentage de trafic est augmenté dans le flux variant. Le déploiement automatique n'accepte qu'un seul flux variante.
    1. Sous Règles de déploiement, vous pouvez définir une ou plusieurs règles conditionnelles pour déterminer comment le test procède aux étapes.
      1. Si vous sélectionnez Correspond à au moins une règle, le test passe à l'étape suivante si au moins une règle et la durée de l'étape actuelle sont remplies.
      2. Si vous sélectionnez Correspond à toutes les règles, le test passe à l'étape suivante si toutes les règles et la durée de l'étape en cours sont remplies.
      3. Si vous sélectionnez Étapes uniquement, le test se poursuit en fonction de la durée de chaque étape.
    2. Sous Augmenter les étapes, définissez un pourcentage de trafic à allouer au flux variant et une durée pour chaque étape. La durée par défaut de chaque étape est de 6 heures.
    3. Sélectionnez Arrêter les conditions pour définir une ou plusieurs conditions dans lesquelles cesser d'envoyer du trafic vers le flux variant. Notez que vous ne pouvez pas redémarrer un test arrêté.
  15. Cliquez sur Enregistrer.

Démarrer et arrêter un test

Vous pouvez démarrer un test enregistré ou arrêter manuellement un test en cours à tout moment. L'arrêt d'un test annule la répartition du trafic et rétablit son état d'origine.

Pour démarrer ou arrêter un test, procédez comme suit :

  1. Ouvrez le panneau "Tests".
  2. Sélectionnez l'onglet État.
  3. Cliquez sur Démarrer ou Arrêter un test dans la liste.

Gérer les tests

Vous pouvez modifier ou supprimer des tests à tout moment :

  1. Ouvrez le panneau "Tests".
  2. Sélectionnez l'onglet État.
  3. Cliquez sur le menu Option d'un test dans la liste.
  4. Cliquez sur Modifier ou sur Supprimer.

Surveiller l'état des tests

Tous les tests, quel que soit leur état, sont disponibles dans le panneau "Tests". Les tests peuvent présenter quatre états différents:

  • Brouillon : le test a été créé, mais il n'a jamais été exécuté.
  • En attente : le test a récemment commencé, mais les résultats ne sont pas encore disponibles.
  • En cours d'exécution : le test est en cours et les résultats intermédiaires sont disponibles.
  • Terminé : le test a été terminé en raison de son arrêt automatique ou manuel.

Afficher les résultats des tests

Pour afficher les résultats du test, procédez comme suit :

  1. Ouvrez la console Dialogflow CX.
  2. Sélectionnez votre projet GCP pour ouvrir le sélecteur d'agent.
  3. Sélectionnez votre agent pour ouvrir le générateur d'agents.
  4. Sélectionnez l'onglet Manage (Gérer).
  5. Cliquez sur Tests pour ouvrir le panneau "Tests".
  6. Sélectionnez l'onglet Résultats.
  7. Sélectionnez un environnement et un test pour voir les résultats.

Les résultats verts indiquent un résultat positif, tandis que le rouge suggère un résultat moins favorable. Notez que, dans certains cas, des valeurs plus élevées ou plus faibles ne sont pas nécessairement meilleures (taux d'abandon élevé/taux d'abandon faible).

Limites

Les limites suivantes s'appliquent :