Adaptation vocale

Lorsque vous exécutez une requête de détection d'intent, vous pouvez éventuellement fournir des indications sur phrase_hints pour fournir des indications à l'outil de reconnaissance vocale. Ces indications peuvent faciliter la reconnaissance dans un état de conversation spécifique.

Adaptation vocale automatique

La fonctionnalité d'adaptation vocale automatique améliore la précision de la reconnaissance vocale de l'agent en utilisant automatiquement l'état de conversation pour transmettre les entités pertinentes et les phrases d'entraînement comme indications de contexte vocal pour toutes les requêtes de détection d'intents. Cette fonctionnalité est désactivée par défaut.

Activer ou désactiver l'adaptation vocale automatique

Pour activer ou désactiver l'adaptation vocale automatique, procédez comme suit :

Console

  1. Ouvrez la console Dialogflow CX.
  2. Choisissez votre projet GCP.
  3. Sélectionnez votre agent.
  4. Cliquez sur Agent Settings (Paramètres de l'agent).
  5. Cliquez sur l'onglet Voix et réponse vocale interactive.
  6. Activez ou désactivez l'option Activer l'adaptation vocale automatique.
  7. Cliquez sur Enregistrer.

API

Consultez les méthodes get et patch/update pour le type Agent.

Sélectionnez un protocole et une version pour la référence de l'agent :

Protocole V3 V3beta1
REST Ressource d'agent Ressource d'agent
RPC Interface de l'agent Interface de l'agent
C++ AgentsClient Non disponible
C# AgentsClient Non disponible
Go AgentsClient Non disponible
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP Non disponible Non disponible
Python AgentsClient AgentsClient
Ruby Non disponible Non disponible

Conception de l'agent pour améliorer la reconnaissance vocale

Lorsque l'adaptation vocale automatique est activée, vous pouvez créer votre agent de manière à en bénéficier. Les sections suivantes expliquent comment améliorer la reconnaissance vocale en apportant certaines modifications aux expressions d'entraînement et aux entités de votre agent.

Phrases d'entraînement

  • Si vous définissez des phrases d'entraînement avec une expression telle que "un beau nez", un énoncé utilisateur phonétiquement semblable est reconnu comme correspondant à "un beau nez", et non à "un bonnet".
  • Lorsque vous disposez d'un paramètre obligatoire qui force Dialogflow à envoyer des invites de remplissage de formulaire, l'adaptation vocale automatique privilégie l'entité en cours de remplissage.

Dans tous les cas, l'adaptation vocale automatique ne fait que pondérer la reconnaissance vocale, et ne la limite pas. Par exemple, même si Dialogflow demande à un utilisateur un paramètre requis, les utilisateurs pourront toujours déclencher d'autres intents, tels qu'un intent de premier niveau "parler à un agent".

Entités système

Si vous définissez une phrase d'entraînement qui utilise l'entité système @sys.number et que l'utilisateur final dit "Je veux deux", il peut être reconnu comme "de", "aussi", "2" ou "deux".

Si l'adaptation vocale automatique est activée, l'entité @sys.number sert d'indication à Dialogflow pendant la reconnaissance vocale, et le paramètre est plus susceptible d'être extrait pour "2".

Entités personnalisées

  • Si vous définissez une entité personnalisée pour les noms de produits ou de services proposés par votre entreprise, et que l'utilisateur final mentionne ces termes dans un énoncé, ils sont plus susceptibles d'être reconnus. Une phrase d'entraînement telle que "I love Dialogflow", où "Dialogflow" est annoté en tant qu'entité @product, indique à l'adaptation automatique de pencher pour "I love Dialogflow", "I love Cloud Speech" et de toutes autres entrées de l'entité @product.

  • Il est particulièrement important de définir des synonymes d'entité propres lorsque vous utilisez Dialogflow pour détecter la reconnaissance vocale. Imaginons que vous disposez de deux entrées d'entité @product, "Dialogflow" et "Dataflow". Vos synonymes de "Dialogflow" peuvent être "Dialogflow", "dialogue flow", "dialogue builder", "Speaktoit", "speak to it", "API.ai", "API dot AI". Ce sont des synonymes pertinents, car ils présentent les variantes les plus courantes. Vous n'avez pas besoin d'ajouter "the dialogue flow builder", car "dialogue flow" couvre déjà cette entrée.

  • Les énoncés de l'utilisateur avec des entités de nombre consécutives, mais distinctes, peuvent être ambigus. Par exemple, "Je veux deux packs de seize" peut signifier 2 quantités de 16 paquets, soit 216 quantités de paquets. L'adaptation vocale peut aider à clarifier les cas suivants si vous configurez des entités avec des valeurs épelées :
    • Définissez une entité quantity avec des entrées :
      zero
      one
      ...
      twenty
    • Définissez une entité product ou size avec des entrées :
      sixteen pack
      two ounce
      ...
      five liter
    • Seuls les synonymes des entités sont utilisés dans l'adaptation vocale. Vous pouvez ainsi définir une entité avec la valeur de référence 1 et un simple synonyme one pour simplifier votre logique de fulfillment.

Entités de type expression régulière

Les entités d'expression régulière peuvent déclencher l'adaptation vocale automatique pour les séquences alphanumériques et numériques telles que "ABC123" ou "12345" lorsqu'elles sont configurées et testées correctement.

Pour reconnaître ces séquences par commande vocale, mettez en œuvre les quatre exigences ci-dessous:

1. Exigence d'entrée d'expression régulière

Bien que n'importe quelle expression régulière puisse être utilisée pour extraire des entités à partir d'entrées de texte, seules certaines expressions indiquent à l'adaptation vocale automatique de biaiser l'adaptation vocale automatique pour les séquences alphanumériques ou de chiffres épelées lors de la reconnaissance vocale.

Dans l'entité d'expression régulière, au moins une entrée doit respecter l'ensemble de ces règles:

  • Doit correspondre à certains caractères alphanumériques, par exemple: \d, \w, [a-zA-Z0-9]
  • Ne doit pas contenir d'espace blanc   ni \s, bien que \s* et \s? soient autorisés
  • Ne doit pas contenir de groupes de capture ni de non-groupes ()
  • Ne doit pas essayer de remplacer des caractères spéciaux ou des signes de ponctuation tels que : ` ~ ! @ # $ % ^ & * ( ) - _ = + , . < > / ? ; ' : " [ ] { } \ |

Cette entrée peut comporter des ensembles de caractères [] et des quantificateurs de répétition tels que *, ?, + et {3,5}.

Voir des exemples

2. Exigence de définition des paramètres

Marquez l'entité d'expression régulière en tant que paramètre de formulaire requis pour pouvoir la collecter lors du remplissage du formulaire. Cela permet à l'adaptation vocale automatique de pencher fortement pour la reconnaissance de séquence au lieu d'essayer de reconnaître un intent et une séquence en même temps. Sinon, "Where is my package for ABC123" sera peut-être mal interprété comme "Where is my package 4ABC123".

3. Exigence d'annotation des phrases d'entraînement

N'utilisez pas l'entité d'expression régulière pour une annotation d'expression d'entraînement d'intent. Cela garantit que le paramètre est résolu lors du remplissage du formulaire.

4. Conditions de test

Consultez la section Tester l'adaptation vocale.

Examples

Par exemple, une entité d'expression régulière avec une seule entrée ([a-zA-Z0-9]\s?){5,9} ne déclenche pas l'outil de reconnaissance de la séquence vocale, car elle contient un groupe de capture. Pour résoudre ce problème, ajoutez simplement une autre entrée pour [a-zA-Z0-9]{5,9}. Vous bénéficierez désormais de l'outil de reconnaissance de séquence pour faire correspondre "ABC123", mais le NLU continuera de faire correspondre les entrées telles que "ABC 123" grâce à la règle d'origine qui autorise les espaces.

Les exemples suivants d'expressions régulières s'adaptent aux séquences alphanumériques :

^[A-Za-z0-9]{1,10}$
WAC\d+
215[2-8]{3}[A-Z]+
[a-zA-Z]\s?[a-zA-Z]\s?[0-9]\s?[0-9]\s?[0-9]\s?[a-zA-Z]\s?[a-zA-Z]

Les exemples suivants d'expressions régulières s'adaptent aux séquences de chiffres :

\d{2,8}
^[0-9]+$
2[0-9]{7}
[2-9]\d{2}[0-8]{3}\d{4}
Solution avec expression régulière

La compatibilité intégrée de l'adaptation vocale automatique avec les entités d'expression régulière varie selon la langue. Vérifiez les jetons de classe vocale pour les langues compatibles avec $OOV_CLASS_ALPHANUMERIC_SEQUENCE et $OOV_CLASS_DIGIT_SEQUENCE.

Si votre langue n'est pas répertoriée, vous pouvez contourner cette limite. Par exemple, si vous souhaitez qu'un ID d'employé composé de trois lettres suivies de trois chiffres soit reconnu avec précision, vous pouvez créer votre agent avec les entités et les paramètres suivants:

  • Définissez une entité digit contenant 10 entrées d'entité (avec des synonymes) :
    0, 0
    1, 1
    ...
    9, 9
  • Définissez une entité letter contenant 26 entrées d'entités (avec des synonymes) :
    A, A
    B, B
    ...
    Z, Z
  • Définissez une entité employee-id contenant une seule entrée d'entité (sans synonymes):
    @letter @letter @letter @digit @digit @digit
  • Utilisez @employee-id comme paramètre dans une expression d'entraînement.

Adaptation vocale manuelle

L'adaptation vocale manuelle vous permet de configurer manuellement des expressions d'adaptation vocale pour un flux ou une page. Il remplace également les contextes vocaux implicites générés par l'adaptation vocale automatique lorsque cette dernière est activée.

Les paramètres d'adaptation vocale au niveau de la page et du niveau de flux ont une relation hiérarchique. Cela signifie qu'une page hérite par défaut des paramètres d'adaptation vocale du niveau de flux. Par ailleurs, un niveau de page plus précis ignore toujours le niveau de flux si la page a un paramètre personnalisé.

Pour le paramètre d'adaptation vocale, les paramètres des niveaux de flux et de page peuvent être activés indépendamment. Si le paramètre d'adaptation au niveau de flux n'est pas activé, vous pouvez toujours sélectionner Personnaliser au niveau de la page pour activer l'adaptation vocale manuelle pour cette page spécifique. De même, si vous désactivez l'adaptation vocale manuelle dans le paramètre de niveau de flux, les pages du flux pour lesquelles l'option Personnaliser est sélectionnée ne seront pas affectées.

Toutefois, les paramètres au niveau du flux et au niveau de la page ne peuvent pas être désactivés indépendamment. Si l'adaptation vocale manuelle est activée sur un flux, vous ne pouvez pas la désactiver pour une page du flux via l'option Personnaliser. Par conséquent, si vous souhaitez utiliser à la fois l'adaptation vocale manuelle et l'adaptation vocale automatique pour les pages d'un flux, vous ne devez pas activer l'adaptation vocale manuelle au niveau du flux et utiliser uniquement les paramètres d'adaptation au niveau de la page. Vous pouvez vous reporter au tableau ci-dessous pour comprendre quelle combinaison de flux et de paramètre de page vous devez utiliser dans votre cas d'adaptation.

Effet cible Utilisation recommandée des paramètres d'adaptation
Désactiver l'adaptation automatique pour un flux Flow activé sans ensemble d'expressions (les pages du flux utilisent par défaut le paramètre de flux).
Désactiver l'adaptation automatique d'une page Flux désactivé et page activée (option Customize (Personnaliser) sélectionnée) sans ensemble d'expressions.
N'utilisez l'adaptation vocale manuelle que pour toutes les pages d'un flux Flux activé. Personnalisez les pages qui doivent utiliser des ensembles d'expressions différents du flux.
Utilisation combinée de l'adaptation automatique et manuelle dans un flux Flux désactivé. Personnalisez les pages sur lesquelles vous souhaitez appliquer l'adaptation manuelle.
N'utiliser l'adaptation vocale automatique que pour toutes les pages d'un flux Flux désactivé.

Activer ou désactiver l'adaptation vocale manuelle

Pour activer ou désactiver l'adaptation vocale manuelle au niveau du flux ou de la page:

Paramètres du flux

  1. Ouvrez la console Dialogflow CX.
  2. Choisissez votre projet GCP.
  3. Passez la souris sur le flux dans la section Flows (Flux).
  4. Cliquez sur le bouton des options .
  5. Sélectionnez Paramètres du flux dans le menu déroulant.
  6. Cochez ou décochez la case Activer l'adaptation vocale manuelle.
  7. Modifier, ajouter ou supprimer des ensembles d'expressions dans le tableau d'ensembles d'expressions
  8. Cliquez sur Enregistrer.

Paramètres de la page

  1. Ouvrez la console Dialogflow CX.
  2. Choisissez votre projet GCP.
  3. Passez la souris sur la page dans la section Pages.
  4. Cliquez sur le bouton des options .
  5. Sélectionnez Paramètres de la page dans le menu déroulant.
  6. L'option Use flow level (Utiliser le niveau de flux) est sélectionnée par défaut. Si vous choisissez cette option, les phrases d'adaptation au niveau de flux seront réutilisées pour cette page. Vous pouvez sélectionner Customize (Personnaliser) pour configurer des phrases d'adaptation différentes des paramètres de niveau de flux. Même si l'adaptation vocale manuelle est désactivée au niveau du flux, vous pouvez toujours l'activer et la configurer pour une page de ce flux à l'aide de l'option Personnaliser.
  7. Modifier, ajouter ou supprimer une expression dans la table d'ensembles de phrases d'adaptation
  8. Cliquez sur Enregistrer.

Configuration manuelle des ensembles d'expressions pour améliorer la reconnaissance vocale

1. Mots et expressions

Dans un ensemble d'expressions d'adaptation, vous pouvez définir des expressions comportant un ou plusieurs mots avec des références facultatives à des jetons de classe vocale. Par exemple, vous pouvez ajouter des expressions telles que "bon prix", "numéro de suivi : $OOV_CLASS_ALPHANUMERIC_SEQUENCE" ou "$FULLPHONENUM". Les expressions fournies augmentent la probabilité qu'elles soient transcrites par rapport à d'autres expressions phonétiquement similaires. Lorsque vous ajoutez une expression de plusieurs mots sans accentuation, le biais est appliqué à la fois à l'ensemble de la phrase et aux parties continues qu'elle contient. En règle générale, vous devez limiter le nombre d'expressions et n'ajouter que des expressions que la reconnaissance vocale a du mal à traiter sans adaptation vocale. Si Speech-to-Text peut déjà reconnaître correctement une expression, il n'est pas nécessaire de l'ajouter aux paramètres d'adaptation vocale. Si vous voyez quelques expressions que Speech-to-Text ignore souvent de manière incorrecte sur une page ou un flux, vous pouvez ajouter les bonnes expressions à ses paramètres d'adaptation correspondants.

Exemple de correction d'erreur de reconnaissance

Voici un exemple d'utilisation de l'adaptation vocale pour résoudre des problèmes de reconnaissance. Supposons que vous conceviez un agent d'échange d'appareils téléphoniques et que l'utilisateur puisse dire quelque chose qui comprend "vendre des téléphones" ou "téléphone portable" après qu'il a posé sa première question : "Quel problème rencontrez-vous ?". Ensuite, comment pouvons-nous utiliser l'adaptation vocale pour améliorer la précision de la reconnaissance sur les deux expressions ?

Si vous incluez les deux expressions dans les paramètres d'adaptation, Speech-to-Text risque encore d'être confondu, car elles se ressemblent. Si vous ne fournissez qu'une expression sur les deux, Speech-to-Text peut confondre l'une par rapport à l'autre. Pour améliorer la précision de la reconnaissance vocale pour les deux expressions, vous devez fournir à Speech-to-Text davantage d'indices contextuels permettant de faire la distinction entre "vendre des téléphones" et "téléphone portable". Par exemple, vous remarquerez peut-être que les internautes utilisent souvent "vendre des téléphones" dans des énoncés tels que "comment vendre des téléphones", "vendez-vous des téléphones" ou "vendez-vous des téléphones", tandis que "téléphone portable" est utilisé dans le cadre d'énoncés tels que "acheter un téléphone portable", "facture de téléphone portable" et "service de téléphonie mobile". Si vous fournissez ces expressions plus précises au modèle plutôt que les courtes expressions d'origine "téléphone portable" et "vendre des téléphones", Speech-to-Text apprendra que "vendre téléphone" comme verbe est plus susceptible de suivre des mots comme "comment", "vouloir" et "vous", tandis que "téléphone portable" comme syntagme nominal est plus susceptible de suivre des mots comme "acheter" ou "facturer" ou des mots comme "acheter" ou "facturer". Par conséquent, en règle générale, pour configurer des phrases d'adaptation, il est généralement préférable de fournir des expressions plus précises telles que "comment vendre des téléphones" ou "vendez-vous des téléphones" que de n'inclure que "vendre des téléphones".

2. Jetons de classe vocale

Outre les mots en langage naturel, vous pouvez également intégrer des références à des jetons de classe vocale dans une expression. Les jetons de classe vocale représentent des concepts courants qui suivent généralement un certain format pour l'écriture. Par exemple, pour une adresse telle que "123 Main Street", les utilisateurs s'attendraient généralement à voir un numéro au format numérique "123" dans l'adresse, au lieu de sa version complète en toutes lettres "cent vingt-trois". Si vous prévoyez une mise en forme particulière dans les résultats de la transcription, en particulier pour les séquences alphanumériques, veuillez consulter la liste des jetons de classe compatibles afin de connaître les jetons disponibles pour votre langue et votre cas d'utilisation.

Si la page contient déjà des routes d'intent ou des paramètres faisant référence à des entités système, voici un tableau de référence pour les mappages entre les entités système courantes et les jetons de classe vocale:

Entités système Jetons de classe vocale
@sys.date $MONTH $DAY $YEAR
@sys.date-time $MONTH $DAY $YEAR
@sys.date-period $MONTH $DAY $YEAR
@sys.time $TIME
@sys.time-period $TIME
@sys.age $OPERAND
@sys.number $OPERAND
@sys.number-integer $OPERAND
@sys.cardinal $OPERAND
@sys.ordinal $OPERAND
@sys.percentage $OPERAND
@sys.duration $OPERAND
@sys.currency-name $MONEY
@sys.unit-currency $MONEY
@sys.phone-number $FULLPHONENUM
@sys.zip-code $POSTALCODE ou $OOV_CLASS_POSTALCODE
@sys.address $ADDRESSNUM $STREET $POSTALCODE
@sys.street-address $ADDRESSNUM $STREET $POSTALCODE
@sys.temperature $OOV_CLASS_TEMPERATURE
@sys.number-sequence $OOV_CLASS_DIGIT_SEQUENCE
@sys.flight-number $OOV_CLASS_ALPHANUMERIC_SEQUENCE

3. Valeur d'optimisation

Si l'ajout d'expressions sans la valeur d'amélioration ne procure pas un effet de pondération suffisamment important, vous pouvez utiliser cette valeur pour renforcer davantage l'effet de pondération de l'adaptation vocale.

La fonctionnalité d'amélioration applique un biais supplémentaire lorsqu'elle est définie sur des valeurs supérieures à 0 et pas plus de 20. Lorsque l'amplification est vide ou définie sur 0, l'effet de pondération par défaut permet de reconnaître l'expression entière et ses parties continues. Par exemple, l'expression "êtes-vous ouvert à vendre des téléphones" permet d'identifier cette expression ainsi que des expressions similaires telles que "Je vends des téléphones" et "Bonjour es-vous ouvert".

Lorsqu'une amélioration positive est appliquée, l'effet de pondération est plus important, mais il ne s'applique qu'à l'expression exacte. Par exemple, l'expression "vendre des téléphones" permet de reconnaître "vendez-vous des téléphones", mais pas "Vendez-vous des téléphones".

C'est pourquoi vous obtiendrez de meilleurs résultats si vous fournissez des expressions à la fois avec et sans boost.

Des valeurs d'amplification plus élevées peuvent réduire le nombre de faux négatifs, c'est-à-dire lorsque le mot ou l'expression apparaît dans l'audio, mais n'ont pas été correctement reconnus par Speech-to-Text (sous-biais). Cependant, l'amélioration peut également augmenter la probabilité de faux positifs, c'est-à-dire les cas où le mot ou l'expression apparaît dans la transcription même s'il n'a pas été introduit dans l'audio (biais excessif). Vous devez généralement affiner vos phrases de biais afin de trouver un bon compromis entre les deux problèmes de pondération.

Pour en savoir plus sur l'ajustement de la valeur d'augmentation pour des expressions, consultez la documentation Cloud Speech sur l'optimisation.

Quand utiliser l'adaptation vocale automatique ou manuelle ?

En général, si vous n'êtes pas sûr que l'adaptation vocale améliore la qualité de la reconnaissance vocale de votre agent (aucun modèle d'erreur de transcription clair à l'esprit), nous vous recommandons d'essayer d'abord l'adaptation vocale automatique avant de recourir à l'adaptation vocale manuelle. Si vous souhaitez prendre des décisions plus nuancées, tenez compte des facteurs suivants pour choisir entre l'adaptation vocale automatique ou l'adaptation vocale manuelle:

1. Remplissage de formulaire

L'adaptation vocale automatique fonctionne très bien avec le remplissage de formulaire, car elle utilise le contexte grammatical ABNF pour les paramètres de formulaire et applique des règles de grammaire en fonction de leur type d'entité. Étant donné que l'adaptation vocale manuelle n'est pas encore compatible avec les grammaires ABNF, l'adaptation vocale automatique est généralement préférable à l'adaptation vocale manuelle pour une page de remplissage de formulaire. Toujours pour les pages ne contenant que des paramètres d'entité système et des entités d'expression régulière simples compatibles avec les jetons de classe vocale, vous pouvez également utiliser l'adaptation vocale manuelle pour obtenir un effet de pondération semblable à l'adaptation vocale automatique, sans qu'il soit nécessaire d'régler les entités d'expression régulière.

2. Complexité de la transition de page ou de flux

Pour une page ou un flux simple contenant quelques routes d'intent, l'adaptation vocale automatique générera probablement des expressions de pondération représentatives et donnera des résultats raisonnablement bons.

Toutefois, si une page ou un flux comporte un grand nombre de routes d'intent (pour une page, veuillez également tenir compte du nombre de routes au niveau du flux), ou si l'un des intents a des phrases d'entraînement sans importance trop longues ou trop courtes (par exemple, une phrase entière ou un seul mot avec une ou deux syllabes), il est très probable que le modèle d'adaptation vocale ne fonctionne pas bien avec ces expressions. Vous devez d'abord essayer de désactiver l'adaptation vocale pour les pages ouvertes avec une complexité élevée en activant l'adaptation vocale manuelle avec des ensembles d'expressions vides (remplacement d'adaptation vide). Ensuite, déterminez si des expressions spéciales et non ambiguës doivent encore être fournies à Speech-to-Text pour améliorer la qualité de la reconnaissance.

Un autre symptôme de ce problème de complexité est l'apparition d'un large éventail de problèmes de sous-biais ou de surpondération lorsque l'adaptation vocale automatique est activée. Comme dans le cas ci-dessus, vous devez également effectuer d'abord un test avec l'adaptation vocale désactivée pour la page concernée. Si des comportements incorrects persistent après la désactivation de l'adaptation vocale, vous pouvez ajouter les expressions que vous souhaitez corriger dans les paramètres d'adaptation vocale, et même ajouter des valeurs d'amélioration pour renforcer davantage les effets de pondération si nécessaire.

Tester l'adaptation vocale

Lorsque vous testez les capacités d'adaptation vocale de votre agent pour une expression d'entraînement ou une correspondance d'entité particulière, vous ne devez pas passer directement au test de correspondance avec le premier énoncé vocal d'une conversation. Vous ne devez utiliser que des entrées vocales ou d'événements pour toute la conversation avant la correspondance que vous souhaitez tester. Le comportement de votre agent lorsqu'il est testé de cette manière est semblable à celui des conversations en production réelles.

Limites

Les limites suivantes s'appliquent :

  • L'adaptation vocale n'est pas disponible pour tous les modèles vocaux et combinaisons de langues. Consultez la page d'assistance pour les langages Cloud Speech afin de vérifier si la fonctionnalité d'adaptation de modèle est disponible pour votre modèle de reconnaissance vocale et votre combinaison linguistique.
  • Actuellement, l'adaptation vocale manuelle n'est pas compatible avec les classes personnalisées ni la grammaire ABNF. Pour exploiter ces fonctionnalités d'adaptation, vous pouvez activer l'adaptation vocale automatique ou utiliser une requête de détection d'intents au moment de l'exécution.

  • La même valeur d'amélioration peut fonctionner différemment pour différents modèles de reconnaissance vocale et linguistiques. Par conséquent, soyez prudent lorsque vous les configurez manuellement pour les agents utilisant plusieurs langues ou modèles de reconnaissance vocale. Actuellement, l'adaptation vocale manuelle s'applique à toutes les langues d'un agent. Par conséquent, les agents multilingues ne doivent utiliser que des expressions qui ne reposent pas sur la maîtrise d'une langue ou diviser chaque langue en un agent distinct. Étant donné que le comportement de pondération par défaut (sans accentuation ni 0 boost) fonctionne généralement bien pour tous les modèles et langages, vous n'avez pas besoin de configurer les valeurs d'optimisation spécifiques à la langue, sauf si une pondération plus forte est requise pour votre cas d'utilisation de la reconnaissance. Pour en savoir plus sur l'optimisation de la valeur, consultez ce guide Cloud Speech-to-Text.

  • La reconnaissance des séquences de caractères longues est difficile. Le nombre de caractères capturés lors d'un seul tour est directement lié à la qualité du contenu audio d'entrée. Si vous avez suivi toutes les consignes relatives aux entités d'expression régulière et essayé d'utiliser des jetons de classe vocale pertinents dans les paramètres d'adaptation vocale manuelle, mais que vous ne parvenez toujours pas à capturer la séquence entière en un seul tour, vous pouvez envisager d'autres alternatives conversationnelles :
    • Lorsque vous validez la séquence par rapport à une base de données, pensez à faire référence aux autres paramètres collectés, tels que les dates, les noms ou les numéros de téléphone, afin d'autoriser les correspondances incomplètes. Par exemple, au lieu de demander simplement un numéro de commande à un utilisateur, demandez également son numéro de téléphone. Désormais, lorsque votre webhook interroge votre base de données pour connaître l'état de la commande, il s'appuie d'abord sur le numéro de téléphone, puis renvoie le numéro de commande correspondant le plus proche pour ce compte. Cela peut permettre à Dialogflow d'identifier "ABC" en tant que "AVC", mais de toujours renvoyer le correct état de la commande pour l'utilisateur.
    • Pour les séquences plus longues, envisagez de créer un flux qui encourage les utilisateurs finaux à faire une pause au milieu afin que le bot puisse confirmer au fur à mesure.