Certains produits et fonctionnalités sont en cours de changement de nom. Les fonctionnalités de playbook et de flux génératifs sont également en cours de migration vers une console unique. Consultez les détails.
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Les tests permettent de comparer les performances de plusieurs versions de flux (versions variantes) à une version de contrôle (généralement une version de production) tout en gérant le trafic en temps réel.
Vous pouvez allouer une partie du trafic en direct à chaque version de flux et surveiller les métriques suivantes :
Contenues : nombre de sessions ayant atteint END_SESSION sans déclencher d'autres métriques ci-dessous.
Disponible uniquement pour les agents utilisant une intégration téléphonique.
Taux de rappel : nombre de sessions redémarrées par un utilisateur final.
Disponible uniquement pour les agents utilisant une intégration téléphonique.
Taux d'abandon : nombre de sessions abandonnées par un utilisateur final.
Disponible uniquement pour les agents utilisant une intégration téléphonique.
Taux de fin de session : nombre de sessions ayant atteint END_SESSION.
Nombre total de tours : nombre total de tours de conversation (une entrée de l'utilisateur final et une réponse de l'agent sont considérées comme un tour).
Nombre moyen de tours : nombre moyen de tours.
Préparation
Pour préparer un test, procédez comme suit :
Décider quel flux sera utilisé pour le test.
Vous ne pouvez pas exécuter plusieurs tests sur un même flux. Assurez-vous donc d'avoir partitionné votre agent en plusieurs flux.
Créez plusieurs versions pour votre flux.
Les différences entre chaque version peuvent être petites ou grandes, selon ce que vous souhaitez comparer.
Déterminez la quantité de trafic qui sera allouée à votre test.
Si vous testez des modifications mineures, vous pouvez commencer avec un trafic important.
Pour les modifications importantes pouvant entraîner des perturbations, envisagez d'allouer une petite quantité de trafic à votre test.
Sélectionnez votre projet pour ouvrir le sélecteur d'agent.
Sélectionnez votre agent pour ouvrir le générateur d'agents.
Sélectionnez l'onglet Manage (Gérer).
Cliquez sur Tests pour ouvrir le panneau "Tests".
Sélectionnez l'onglet État.
Cliquez sur Create (Créer).
Saisissez une description.
Sélectionnez l'environnement à partir duquel vous souhaitez exécuter le test.
Sélectionnez le flux du test.
Vous pouvez éventuellement saisir le nombre de jours pendant lesquels le test s'arrêtera automatiquement.
Saisissez la version du flux de contrôle et le pourcentage de trafic qui sera dirigé vers la version de contrôle.
Saisissez une à quatre versions de flux variantes, ainsi que le pourcentage de trafic qui sera dirigé vers la version variante.
Si vous le souhaitez, cliquez sur Activer le déploiement automatique et les étapes pour déployer progressivement le trafic vers le flux variant. Un test automatisé est basé sur des étapes, qui correspondent aux durées pendant lesquelles un pourcentage de trafic est augmenté dans le flux variant. Le déploiement automatique n'accepte qu'un seul flux variante.
Sous Règles de déploiement, vous pouvez définir une ou plusieurs règles conditionnelles pour déterminer comment le test procède aux étapes.
Si vous sélectionnez Correspond à au moins une règle, le test passe à l'étape suivante si au moins une règle et la durée de l'étape actuelle sont remplies.
Si vous sélectionnez Correspond à toutes les règles, le test passe à l'étape suivante si toutes les règles et la durée de l'étape en cours sont remplies.
Si vous sélectionnez Étapes uniquement, le test se poursuit en fonction de la durée de chaque étape.
Sous Augmenter les étapes, définissez un pourcentage de trafic à allouer au flux variant et une durée pour chaque étape. La durée par défaut de chaque étape est de 6 heures.
Sélectionnez Arrêter les conditions pour définir une ou plusieurs conditions dans lesquelles cesser d'envoyer du trafic vers le flux variant. Notez que vous ne pouvez pas redémarrer un test arrêté.
Cliquez sur Enregistrer.
Démarrer et arrêter un test
Vous pouvez démarrer un test enregistré ou arrêter manuellement un test en cours à tout moment.
L'arrêt d'un test annule la répartition du trafic et rétablit son état d'origine.
Pour démarrer ou arrêter un test, procédez comme suit :
Ouvrez le panneau "Tests".
Sélectionnez l'onglet État.
Cliquez sur Démarrer ou Arrêter un test dans la liste.
Gérer les tests
Vous pouvez modifier ou supprimer des tests à tout moment :
Ouvrez le panneau "Tests".
Sélectionnez l'onglet État.
Cliquez sur le menu Option more_vert d'un test dans la liste.
Cliquez sur Modifier ou sur Supprimer.
Surveiller l'état des tests
Tous les tests, quel que soit leur état, sont disponibles dans le panneau "Tests".
Les tests peuvent présenter quatre états différents:
Brouillon : le test a été créé, mais il n'a jamais été exécuté.
En attente : le test a récemment commencé, mais les résultats ne sont pas encore disponibles.
En cours d'exécution : le test est en cours et les résultats intermédiaires sont disponibles.
Terminé : le test a été terminé en raison de son arrêt automatique ou manuel.
Afficher les résultats des tests
Pour afficher les résultats du test, procédez comme suit :
Sélectionnez votre projet pour ouvrir le sélecteur d'agent.
Sélectionnez votre agent pour ouvrir le générateur d'agents.
Sélectionnez l'onglet Manage (Gérer).
Cliquez sur Tests pour ouvrir le panneau "Tests".
Sélectionnez l'onglet Résultats.
Sélectionnez un environnement et un test pour voir les résultats.
Les résultats verts indiquent un résultat positif, tandis que le rouge suggère un résultat moins favorable.
Notez que, dans certains cas, des valeurs plus élevées ou plus faibles ne sont pas nécessairement meilleures (taux d'abandon élevé/taux d'abandon faible).
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[[["\u003cp\u003eExperiments compare multiple flow versions (variants) against a control version to assess performance using live traffic.\u003c/p\u003e\n"],["\u003cp\u003eKey metrics monitored during experiments include session outcomes like containment, live agent handoff rate, callback rate, abandonment rate, session end rate, no-match count, and turn counts.\u003c/p\u003e\n"],["\u003cp\u003ePreparing for an experiment involves choosing a flow, creating multiple versions of it, and deciding how much traffic to allocate.\u003c/p\u003e\n"],["\u003cp\u003eExperiments can be started, stopped, edited, and deleted, with status indicators including Draft, Pending, Running, and Completed.\u003c/p\u003e\n"],["\u003cp\u003eExperiment results are displayed in green or red to represent favorable or unfavorable outcomes respectively, with a note that higher or lower values are not always better depending on the metric in question.\u003c/p\u003e\n"]]],[],null,["# Experiments are used to compare the performance\nof multiple flow versions (*variant* versions)\nto a *control* version (normally a production version) while handling live traffic.\nYou can allocate a portion of live traffic to each flow version\nand monitor the following metrics:\n\n- **Contained** : Count of sessions that reached [END_SESSION](https://cloud.google.com/dialogflow/cx/docs/concept/handler#symbolic) without triggering other metrics below. Only available to agents using a telephony integration.\n- **Live agent handoff rate** : Count of sessions [handed off to a live agent](/dialogflow/cx/docs/concept/fulfillment#handoff).\n- **Callback rate**: Count of sessions that were restarted by an end-user. Only available to agents using a telephony integration.\n- **Abandoned rate**: Count of sessions that were abandoned by an end-user. Only available to agents using a telephony integration.\n- **Session end rate** : Count of sessions that reached [END_SESSION](https://cloud.google.com/dialogflow/cx/docs/concept/handler#symbolic).\n- **Total no-match count** : Total count of occurrences of a [no-match event](/dialogflow/cx/docs/concept/handler#event-built-in).\n- **Total turn count**: Total number of conversational turns (one end-user input and one agent response is considered a turn).\n- **Average turn count**: Average number of turns.\n\nPreparation\n-----------\n\nTo prepare for an experiment:\n\n1. Decide which flow will be used for the experiment. You cannot run multiple experiments on a single flow, so ensure that you have partitioned your agent into multiple flows.\n2. Create multiple [versions](/dialogflow/cx/docs/concept/version) for your flow. The differences between each version could be small or large, depending on what you want to compare.\n3. Decide on the amount of traffic that will be allocated to your experiment. If you are testing minor changes, you might start with a higher amount of traffic. For large changes that may be disruptive, consider allocating a small amount of traffic to your experiment.\n\nCreate an experiment\n--------------------\n\nTo create an experiment:\n\n1. Open the [Dialogflow CX console](https://dialogflow.cloud.google.com/cx/projects).\n2. Select your project to open the agent selector.\n3. Select your agent to open the agent builder.\n4. Select the **Manage** tab.\n5. Click **Experiments** to open the Experiments panel.\n6. Select the **Status** tab.\n7. Click **Create**.\n8. Enter a description.\n9. Select the [environment](/dialogflow/cx/docs/concept/version) that you want to run the experiment from.\n10. Select the flow for the experiment.\n11. Optionally enter the number of days in which the experiment will automatically stop.\n12. Enter the control flow version and the percentage of traffic that will go to the control version.\n13. Enter one to four variant flow versions, and the percentage of traffic that will go to the variant version.\n14. Optionally, click **Enable auto rollout and steps** for a gradual rollout of traffic to the variant flow. An automated experiment is based on *steps* , which are time durations in which a percentage of traffic is increased to the variant flow. Auto rollout only supports one variant flow.\n 1. Under **Rollout rules** , you can set one or more conditional rules to determine how the experiment should proceed through the steps.\n 1. If you select **Match at least one rule**, the experiment proceeds to the next step if at least one rule and the time duration for the current step are met.\n 2. If you select **Match all rules**, the experiment proceeds to the next step if all rules and the time duration for the current step are met.\n 3. If you select **Steps only**, the experiment proceeds according to the time durations for each step.\n 2. Under **Increase steps**, define a percentage of traffic to allocate to the variant flow and a time duration for each step. The default time duration for each step is 6 hours.\n 3. Select **Stop conditions** to set one or more conditions under which to stop sending traffic to the variant flow. Note that you cannot restart a stopped experiment.\n15. Click **Save**.\n\nStart and stop an experiment\n----------------------------\n\nYou can start a saved experiment\nor manually stop a running experiment at any time.\nStopping an experiment will cancel the traffic allocation\nand will revert traffic to its original state.\n| **Note:** If you stop an experiment while it is [pending](#monitor), results will not be available. If you stop an experiment while it is [running](#monitor), results might be inconclusive or missing.\n\nTo start or stop an experiment:\n\n1. Open the Experiments panel.\n2. Select the **Status** tab.\n3. Click **Start** or **Stop** for an experiment in the list.\n\nManage experiments\n------------------\n\n| **Note:** You can change variant traffic allocation while an experiment is running.\n\nYou can edit or delete experiments at any time:\n\n1. Open the Experiments panel.\n2. Select the **Status** tab.\n3. Click the option *more_vert* menu for an experiment in the list.\n4. Click **Edit** or **Delete**.\n\nMonitor status of experiments\n-----------------------------\n\nAll experiments, regardless of their status,\ncan be found on the experiments panel.\nExperiments can have four different statuses:\n\n- **Draft**: Experiment has been created, but it has never run.\n- **Pending**: Experiment has started recently, but results are not available yet.\n- **Running**: Experiment is running and interim results are available.\n- **Completed**: Experiment has been completed due to automatically or manually being stopped.\n\nViewing experiment results\n--------------------------\n\nTo see experiment results:\n\n1. Open the [Dialogflow CX console](https://dialogflow.cloud.google.com/cx/projects).\n2. Select your project to open the agent selector.\n3. Select your agent to open the agent builder.\n4. Select the **Manage** tab.\n5. Click **Experiments** to open the Experiments panel.\n6. Select the **Results** tab.\n7. Select an environment and experiment to see the results.\n\nGreen colored results suggest a favorable outcome,\nwhile red suggests a less favorable result.\nNotice that in some cases,\nhigher/lower numbers are not necessarily better\n(high abandonment rate / low abandonment rate).\n| **Note:** You will see \"no experiment result\" if not enough conversations have been through each variant of the experiment.\n\nLimitations\n-----------\n\nThe following limitations apply:\n\n- The [Enable interaction logging](/dialogflow/cx/docs/concept/agent-settings#settings-general) agent setting must be enabled."]]