Cette page a été traduite par l'API Cloud Translation.
Switch to English

Adaptation vocale automatique

La fonctionnalité d'adaptation vocale automatique améliore la précision de la reconnaissance vocale de l'agent en utilisant automatiquement l'état de conversation pour transmettre les entités pertinentes et les phrases d'entraînement comme indications de contexte vocal pour toutes les requêtes de détection d'intents. Cette fonctionnalité est désactivée par défaut.

Activer ou désactiver l'adaptation vocale automatique

Pour activer ou désactiver l'adaptation vocale automatique, procédez comme suit :

Console

  1. Ouvrez la console Dialogflow CX.
  2. Choisissez votre projet GCP.
  3. Sélectionnez votre agent.
  4. Cliquez sur Agent Settings (Paramètres de l'agent).
  5. Cliquez sur l'onglet Voix et texte interactif.
  6. Activez ou désactivez l'option Activer l'adaptation vocale.
  7. Cliquez sur Enregistrer.

API

Consultez les méthodes get et patch/update pour le type Agent.

Sélectionnez un protocole et une version pour la référence de l'agent :

Protocole V3 V3beta1
REST Ressource de l'agent Ressource de l'agent
RPC Interface de l'agent Interface de l'agent
C# Non disponible Non disponible
Go Non disponible Non disponible
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP Non disponible Non disponible
Python AgentsClient AgentsClient
Ruby Non disponible Non disponible

Exemples d'amélioration de la reconnaissance vocale

Lorsque l'adaptation vocale automatique est activée, vous pouvez créer votre agent de manière à en bénéficier. Les sections suivantes expliquent comment améliorer la reconnaissance vocale en apportant certaines modifications aux expressions d'entraînement et aux entités de votre agent.

Phrases d'entraînement

  • Si vous définissez des phrases d'entraînement avec une expression telle que "un beau nez", un énoncé utilisateur phonétiquement semblable est reconnu comme correspondant à "un beau nez", et non à "un bonnet".
  • Lorsqu'un paramètre requis oblige Dialogflow à remplir les invites de remplissage, l'adaptation vocale automatique sera fortement influencée par l'entité en cours de remplissage.

Dans tous les cas, l'adaptation vocale automatique ne fait que pondérer la reconnaissance vocale, et ne la limite pas. Par exemple, même si Dialogflow demande à un utilisateur un paramètre requis, les utilisateurs pourront toujours déclencher d'autres intents, tels qu'un intent de premier niveau "parler à un agent".

Entités système

Si vous définissez une expression d'entraînement qui utilise l'entité système @sys.number et que l'utilisateur final dit "Je veux deux", celui-ci peut être reconnu de différentes façons : "de", "d'œufs", "2" ou "deux".

Si l'adaptation vocale automatique est activée, l'entité @sys.number sert d'indication à Dialogflow pendant la reconnaissance vocale, et le paramètre est plus susceptible d'être extrait pour "2".

Entités personnalisées

  • Si vous définissez des entités pour les noms de produits ou de services proposés par votre entreprise et que l'utilisateur final mentionne ces termes dans un énoncé, ils sont plus susceptibles d'être reconnus. Une phrase d'entraînement telle que "I love Dialogflow", où "Dialogflow" est annoté en tant qu'entité @product, indique à l'adaptation automatique de pencher pour "I love Dialogflow", "I love Cloud Speech" et de toutes autres entrées de l'entité @product.

  • Il est particulièrement important de définir des synonymes d'entité propres lorsque vous utilisez Dialogflow pour détecter la reconnaissance vocale. Imaginons que vous disposez de deux entrées d'entité @product, "Dialogflow" et "Dataflow". Vos synonymes de "Dialogflow" peuvent être "Dialogflow", "dialogue flow", "dialogue builder", "Speaktoit", "speak to it", "API.ai", "API dot AI". Ce sont des synonymes pertinents, car ils présentent les variantes les plus courantes. Vous n'avez pas besoin d'ajouter "the dialogue flow builder", car "dialogue flow" couvre déjà cette entrée.

  • Les énoncés de l'utilisateur avec des entités de nombre consécutives, mais distinctes, peuvent être ambigus. Par exemple, "Je veux deux packs de seize" peut signifier 2 quantités de 16 paquets, soit 216 quantités de paquets. L'adaptation vocale peut aider à clarifier les cas suivants si vous configurez des entités avec des valeurs épelées :
    • Définissez une entité quantity avec des entrées :
      zero
      one
      ...
      twenty
    • Définissez une entité product ou size avec des entrées :
      sixteen pack
      two ounce
      ...
      five liter
    • Seuls les synonymes des entités sont utilisés dans l'adaptation vocale. Vous pouvez ainsi définir une entité avec la valeur de référence 1 et un simple synonyme one pour simplifier votre logique de fulfillment.

Entités de type expression régulière

Les entités d'expression régulière peuvent déclencher l'adaptation vocale automatique pour les séquences alphanumériques et de chiffres telles que "ABC123" ou "12345" lorsqu'elles sont configurées correctement. Bien que toute expression régulière puisse être utilisée pour extraire des entités du TLN, seules certaines expressions indiquent à l'adaptation automatique de la voix de tenir compte des séquences alphanumériques ou numériques épelées lors de la reconnaissance vocale.

Vérifiez que vous respectez toutes les conditions suivantes si vous souhaitez reconnaître ces séquences par commande vocale :

  1. Au moins une de vos entrées d'entité d'expression régulière suit toutes ces règles :

    • Peut utiliser des jeux de caractères [].
    • Peut utiliser des quantificateurs répétitifs tels que *, ?, +, {3,5}
    • Ne contient pas d'espace blanc ni de \s, bien que \s* et \s? soient autorisés
    • Ne contient pas de groupes de capture ()
    • N'essaie pas d'utiliser des caractères spéciaux ou des signes de ponctuation tels que : ` ~ ! @ # $ % ^ & * ( ) - _ = + , . < > / ? ; ' : " [ ] { } \ |
  2. Dans votre intent, marquez l'entité d'expression régulière en tant que paramètre requis pour pouvoir la collecter lors du remplissage de cases. Cela permet à l'adaptation vocale automatique de pencher fortement pour la reconnaissance de séquence au lieu d'essayer de reconnaître un intent et une séquence en même temps. Sinon, "Where is my package for ABC123" sera peut-être mal interprété comme "Where is my package 4ABC123".

Par exemple, une entité d'expression régulière avec une seule entrée ([a-zA-Z0-9]\s?){5,9} ne déclenche pas l'outil de reconnaissance de la séquence vocale, car elle contient un groupe de capture. Pour résoudre ce problème, ajoutez simplement une autre entrée pour [a-zA-Z0-9]{5,9}. Désormais, l'outil de reconnaissance de séquencement vous servira de rempli à voix haute pour la formulation "ABC123", mais le LLP correspond toujours à des entrées comme "ABC 123". à la règle d'origine qui autorise les espaces.

Les exemples suivants d'expressions régulières s'adaptent aux séquences alphanumériques :

^[A-Za-z0-9]{1,10}$
WAC\d+
215[2-8]{3}[A-Z]+
[a-zA-Z]\s?[a-zA-Z]\s?[0-9]\s?[0-9]\s?[0-9]\s?[a-zA-Z]\s?[a-zA-Z]

Les exemples suivants d'expressions régulières s'adaptent aux séquences de chiffres :

\d{2,8}
^[0-9]+$
2[0-9]{7}
[2-9]\d{2}[0-8]{3}\d{4}

Pensez également à utiliser @sys.number-sequence pour accepter n'importe quelle séquence de chiffres, et @sys.phone-number pour une reconnaissance de numéro de téléphone localisé. Les entités système et les entités personnalisées (non génériques) fonctionnent bien avec l'adaptation vocale automatique, même en dehors des invites de remplissage de formulaire requises.

Limites

Les limites suivantes s'appliquent :

  1. La reconnaissance des séquences de caractères longues est difficile. Par exemple, sur les chaînes de téléphones avec un contenu audio de 8 kHz, vous ne pourrez peut-être pas identifier les séquences de plus de 16 chiffres ou 10 caractères alphanumériques. Envisagez d'autres solutions conversationnelles, par exemple :

    • Lorsque vous validez la séquence par rapport à une base de données, pensez à faire référence aux autres paramètres collectés, tels que les dates, les noms ou les numéros de téléphone, afin d'autoriser les correspondances incomplètes. Par exemple, au lieu de demander simplement un numéro de commande à un utilisateur, demandez également son numéro de téléphone. Désormais, lorsque votre webhook interroge votre base de données pour connaître l'état de la commande, il s'appuie d'abord sur le numéro de téléphone, puis renvoie le numéro de commande correspondant le plus proche pour ce compte. Cela peut permettre à Dialogflow d'identifier "ABC" en tant que "AVC", mais de toujours renvoyer le correct état de la commande pour l'utilisateur.
    • Pour les longues séquences supplémentaires, envisagez de concevoir un flux qui encourage les utilisateurs finaux à interrompre la lecture pour permettre au bot de confirmer au fur et à mesure.
  2. La prise en charge intégrée de l'adaptation automatique de la voix pour les entités système et les expressions régulières varie selon la langue. Consultez les jetons de classe Speech pour connaître les langues acceptées par $OOV_CLASS_ALPHANUMERIC_SEQUENCE et $OOV_CLASS_DIGIT_SEQUENCE. Si votre langue n'est pas répertoriée, vous pouvez contourner cette limite. Par exemple, si vous souhaitez qu'un ID d'employé composé de trois lettres suivies de trois chiffres soit correctement reconnu, vous pouvez créer votre agent avec les entités et les paramètres suivants :

    • Définissez une entité digit contenant 10 entrées d'entités (avec des synonymes) :
      0, 0
      1, 1
      ...
      9, 9
    • Définissez une entité letter contenant 26 entrées d'entités (avec des synonymes) :
      A, A
      B, B
      ...
      Z, Z
    • Définissez une entité employee-id contenant une seule entrée d'entité (sans synonymes) :
      @letter @letter @letter @digit @digit @digit
    • Utilisez @employee-id comme paramètre dans une expression d'entraînement.