Adaptation vocale

Lorsque vous effectuez une requête de détection d'intent, vous pouvez éventuellement phrase_hints pour fournir des indices à l'outil de reconnaissance vocale. Ces indications peuvent faciliter la reconnaissance dans un état de conversation spécifique.

Adaptation vocale automatique

La fonctionnalité d'adaptation vocale automatique améliore la précision de la reconnaissance vocale de l'agent en utilisant automatiquement l'état de conversation pour transmettre les entités pertinentes et les phrases d'entraînement comme indications de contexte vocal pour toutes les requêtes de détection d'intents. Cette fonctionnalité est désactivée par défaut.

Activer ou désactiver l'adaptation vocale automatique

Pour activer ou désactiver l'adaptation vocale automatique, procédez comme suit :

Console

  1. Ouvrez la console Dialogflow CX.
  2. Choisissez votre projet GCP.
  3. Sélectionnez votre agent.
  4. Cliquez sur Agent Settings (Paramètres de l'agent).
  5. Cliquez sur l'onglet Voix et réponse vocale interactive.
  6. Activez ou désactivez l'option Activer l'adaptation vocale automatique.
  7. Cliquez sur Enregistrer.

API

Consultez les méthodes get et patch/update pour le type Agent.

Sélectionnez un protocole et une version pour la référence de l'agent :

Protocole V3 V3beta1
REST Ressource de l'agent Ressource de l'agent
RPC Interface de l'agent Interface de l'agent
C++ AgentsClient Non disponible
C# AgentsClient Non disponible
Go AgentsClient Non disponible
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP Non disponible Non disponible
Python AgentsClient AgentsClient
Ruby Non disponible Non disponible

Conception de l'agent pour les améliorations de la reconnaissance vocale

Lorsque l'adaptation vocale automatique est activée, vous pouvez créer votre agent de manière à en bénéficier. Les sections suivantes expliquent comment améliorer la reconnaissance vocale en apportant certaines modifications aux expressions d'entraînement et aux entités de votre agent.

Phrases d'entraînement

  • Si vous définissez des phrases d'entraînement avec une expression telle que "un beau nez", un énoncé utilisateur phonétiquement semblable est reconnu comme correspondant à "un beau nez", et non à "un bonnet".
  • Lorsque vous avez un paramètre obligatoire qui oblige Dialogflow à remplissage de formulaire requêtes, adaptation vocale automatique une forte influence en faveur de l'entité à remplir.

Dans tous les cas, l'adaptation vocale automatique ne fait que pondérer la reconnaissance vocale, et ne la limite pas. Par exemple, même si Dialogflow demande à un utilisateur un paramètre requis, les utilisateurs pourront toujours déclencher d'autres intents, tels qu'un intent de premier niveau "parler à un agent".

Entités système

Si vous définissez une phrase d'entraînement qui utilise @sys.number entité système , et que l'utilisateur final dit « J'en veux deux », il peut être reconnu comme "à", "aussi", "2" ou "deux".

Si l'adaptation vocale automatique est activée, l'entité @sys.number sert d'indication à Dialogflow pendant la reconnaissance vocale, et le paramètre est plus susceptible d'être extrait pour "2".

Entités personnalisées

  • Si vous définissez une entité personnalisée concernant les noms de produits ou de services proposés par votre entreprise, et que l'utilisateur final mentionne ces termes dans un énoncé, il est plus probable pour être reconnues. Une phrase d'entraînement telle que "I love Dialogflow", où "Dialogflow" est annoté en tant qu'entité @product, indique à l'adaptation automatique de pencher pour "I love Dialogflow", "I love Cloud Speech" et de toutes autres entrées de l'entité @product.

  • Il est particulièrement important de définir des synonymes d'entité propres lorsque vous utilisez Dialogflow pour détecter la reconnaissance vocale. Imaginons que vous disposez de deux entrées d'entité @product, "Dialogflow" et "Dataflow". Vos synonymes de "Dialogflow" peuvent être "Dialogflow", "dialogue flow", "dialogue builder", "Speaktoit", "speak to it", "API.ai", "API dot AI". Ce sont des synonymes pertinents, car ils présentent les variantes les plus courantes. Vous n'avez pas besoin d'ajouter "the dialogue flow builder", car "dialogue flow" couvre déjà cette entrée.

  • Les énoncés de l'utilisateur avec des entités de nombre consécutives, mais distinctes, peuvent être ambigus. Par exemple, "Je veux deux packs de seize" peut signifier 2 quantités de 16 paquets, soit 216 quantités de paquets. L'adaptation vocale peut aider à clarifier les cas suivants si vous configurez des entités avec des valeurs épelées :
    • Définissez une entité quantity avec des entrées :
      zero
      one
      ...
      twenty
    • Définissez une entité product ou size avec des entrées :
      sixteen pack
      two ounce
      ...
      five liter
    • Seuls les synonymes des entités sont utilisés dans l'adaptation vocale. Vous pouvez ainsi définir une entité avec la valeur de référence 1 et un simple synonyme one pour simplifier votre logique de fulfillment.

Entités d'expression régulière

Les entités d'expression régulière peuvent déclencher l'adaptation vocale automatique pour des séquences alphanumériques et numériques tels que "ABC123" ou "12345" lorsqu'elles sont correctement configurées et testées.

Pour reconnaître ces séquences par commande vocale, mettez en œuvre les quatre des exigences ci-dessous:

1. Exigence d'entrée d'expression régulière

Bien que n'importe quelle expression régulière puisse être utilisée pour extraire des entités à partir d'entrées de texte, seules certaines expressions indiqueront à l'adaptation vocale automatique de pondérer pour des séquences alphanumériques ou des chiffres orthographiées pour la reconnaissance vocale.

Dans l'entité d'expression régulière, au moins une entrée doit respecter toutes les règles suivantes:

  • Doit correspondre à certains caractères alphanumériques, par exemple: \d, \w, [a-zA-Z0-9]
  • Ne doit pas contenir d'espace blanc   ou \s, bien que \s* et \s? soient autorisés
  • Ne doit pas contenir de groupes de capture ou de non-capture ()
  • Ne doit pas essayer de correspondre à des caractères spéciaux ni à des signes de ponctuation, par exemple: ` ~ ! @ # $ % ^ & * ( ) - _ = + , . < > / ? ; ' : " [ ] { } \ |

Cette entrée peut comporter des jeux de caractères [] et des quantificateurs de répétition tels que *, ?, + et {3,5}.

Consultez des exemples.

2. Exigence de définition des paramètres

Marquez l'entité d'expression régulière en tant que paramètre de formulaire requis pour pouvoir la collecter lors du remplissage du formulaire. Cela permet à l'adaptation vocale automatique de pencher fortement pour la reconnaissance de séquence au lieu d'essayer de reconnaître un intent et une séquence en même temps. Sinon, "Where is my package for ABC123" sera peut-être mal interprété comme "Where is my package 4ABC123".

3. Exigence d'annotation des phrases d'entraînement

N'utilisez pas l'entité d'expression régulière pour une Annotation de phrases d'entraînement d'intent. Cela garantit que le paramètre est résolu lors du remplissage du formulaire.

4. Exigence de test

Consultez la section Tester l'adaptation vocale.

Examples

Par exemple, une entité d'expression régulière avec une seule entrée ([a-zA-Z0-9]\s?){5,9} ne déclenche pas l'outil de reconnaissance de la séquence vocale, car elle contient un groupe de capture. Pour résoudre ce problème, ajoutez simplement une autre entrée pour [a-zA-Z0-9]{5,9}. Vous allez maintenant bénéficier du reconnaissance de séquence lors de la recherche de « ABC123 », mais la NLU continue à correspondre à des entrées comme "ABC 123" grâce à l'original qui autorise les espaces.

Les exemples suivants d'expressions régulières s'adaptent aux séquences alphanumériques :

^[A-Za-z0-9]{1,10}$
WAC\d+
215[2-8]{3}[A-Z]+
[a-zA-Z]\s?[a-zA-Z]\s?[0-9]\s?[0-9]\s?[0-9]\s?[a-zA-Z]\s?[a-zA-Z]

Les exemples suivants d'expressions régulières s'adaptent aux séquences de chiffres :

\d{2,8}
^[0-9]+$
2[0-9]{7}
[2-9]\d{2}[0-8]{3}\d{4}
Solution de contournement de l'expression régulière

La compatibilité intégrée de l'adaptation vocale automatique avec les entités d'expression régulière varie selon la langue. Cochez la case Jetons de classe de reconnaissance vocale. pour $OOV_CLASS_ALPHANUMERIC_SEQUENCE et $OOV_CLASS_DIGIT_SEQUENCE langues prises en charge.

Si votre langue n'est pas répertoriée, vous pouvez contourner cette limite. Par exemple, si vous souhaitez un ID d'employé trois lettres suivies de trois chiffres pour qu'il soit reconnu, vous pouvez Créez votre agent avec les entités et les paramètres suivants:

  • Définissez une entité digit contenant 10 entrées d'entité (avec des synonymes):
    0, 0
    1, 1
    ...
    9, 9
  • Définissez une entité letter contenant 26 entrées d'entités (avec des synonymes):
    A, A
    B, B
    ...
    Z, Z
  • Définir une entité employee-id contenant une seule entrée d'entité (sans synonymes):
    @letter @letter @letter @digit @digit @digit
  • Utilisez @employee-id comme paramètre dans une expression d'entraînement.

Adaptation vocale manuelle

L'adaptation vocale manuelle vous permet de configurer manuellement des expressions d'adaptation vocale d'un flux ou d'une page. Elle remplace également les contextes vocaux implicites générés par adaptation vocale automatique lorsque cette dernière est activée.

Les paramètres d'adaptation vocale au niveau du flux et de la page ont une hiérarchie ce qui signifie qu'une page hérite des paramètres d'adaptation vocale le niveau de flux par défaut et le niveau de page plus précis remplace le niveau du flux si la page comporte un paramètre personnalisé.

Pour le paramètre d'adaptation vocale, le paramètre de niveau de flux et le paramètre de niveau de page peuvent être activées indépendamment. Si le paramètre d'adaptation au niveau du flux n'est pas activé, vous pouvez toujours sélectionner Personnaliser au niveau de la page pour activer l'adaptation vocale manuelle pour cette page spécifique. De même, si vous désactivez l'adaptation vocale manuelle au niveau du flux, les pages du flux avec L'option Personnaliser sélectionnée ne sera pas affectée.

Toutefois, vous ne pouvez pas désactiver indépendamment le paramètre au niveau du flux et celui au niveau de la page. Si l'adaptation vocale manuelle est activée pour un flux, vous ne pouvez pas la désactiver sous l'option Customize (Personnaliser). Par conséquent, si vous souhaitez utilisent à la fois l'adaptation vocale manuelle et l'adaptation vocale automatique pour les pages au sein d'un flux, vous ne devez pas activer l'adaptation vocale manuelle au niveau du flux. ne devez utiliser que les paramètres d'adaptation au niveau de la page à la place. Vous pouvez consulter le tableau ci-dessous pour savoir quelle combinaison de flux et de paramètres de page utiliser pour votre cas d'adaptation.

Effet cible Utilisation recommandée des paramètres d'adaptation
Désactiver l'adaptation automatique pour un flux Flow activé sans ensemble d'expressions (les pages du flux utilisent par défaut le paramètre de flux).
Désactiver l'adaptation automatique pour une page Flux désactivé et page activée (option Personnaliser sélectionnée) sans ensemble d'expressions.
N'utiliser l'adaptation vocale manuelle que pour toutes les pages d'un flux Flux activé. Personnalisez les pages qui doivent utiliser des ensembles d'expressions différents du flux.
Utiliser à la fois l'adaptation automatique et manuelle dans un flux Flux désactivé. Personnalisez les pages auxquelles vous souhaitez appliquer une adaptation manuelle.
Utiliser uniquement l'adaptation vocale automatique pour toutes les pages d'un flux Flux désactivé.

Activer ou désactiver l'adaptation vocale manuelle

Pour activer ou désactiver l'adaptation vocale manuelle au niveau du flux ou de la page :

Paramètres de flux

  1. Ouvrez la console Dialogflow CX.
  2. Choisissez votre projet GCP.
  3. Passez la souris sur le flux dans la section Flows (Flux).
  4. Cliquez sur le bouton des options .
  5. Sélectionnez Flow Settings (Paramètres du flux) dans le menu déroulant.
  6. Cochez ou décochez la case Activer l'adaptation vocale manuelle.
  7. Modifier, ajouter ou supprimer des ensembles d'expressions dans le tableau des ensembles d'expressions
  8. Cliquez sur Enregistrer.

Paramètres de la page

  1. Ouvrez la console Dialogflow CX.
  2. Choisissez votre projet GCP.
  3. Passez la souris sur la page dans la section Pages.
  4. Cliquez sur le bouton des options .
  5. Sélectionnez Paramètres de la page dans le menu déroulant.
  6. Utiliser le niveau de flux est sélectionné par défaut. Les phrases d'adaptation au niveau du flux seront réutilisées pour cette page. Vous pouvez choisir Personnaliser pour configurer des expressions d'adaptation différentes de paramètres de niveau de flux. Même si l'adaptation vocale manuelle est désactivée niveau de flux, vous pouvez toujours activer et configurer l'adaptation vocale manuelle pour une page dans ce flux à l'aide de l'option Personnaliser.
  7. Modifier, ajouter ou supprimer un ensemble d'expressions dans le tableau des ensembles d'expressions d'adaptation
  8. Cliquez sur Enregistrer.

Configuration manuelle du jeu d'expressions pour améliorer la reconnaissance vocale

1. Mots et expressions

Dans un ensemble d'expressions d'adaptation, vous pouvez définir des expressions composées d'un ou de plusieurs mots. contenant des références facultatives aux jetons de classe de reconnaissance vocale. Par exemple, vous pouvez ajouter des expressions telles que "taux intéressant", "numéro de suivi : $OOV_CLASS_ALPHANUMERIC_SEQUENCE" ou "$FULLPHONENUM". Les expressions que vous fournissez augmentent les chances qu'elles soient transcrites d'autres expressions phonétiquement similaires. Lorsque vous ajoutez une expression composée de plusieurs mots sans aucune amélioration, le biais s'applique à l'ensemble de l'expression et aux portions continues de l'expression. En général, le nombre d'expressions doivent rester petits et n'ajouter que des expressions que le module de reconnaissance vocale peine à s'adapter sans adaptation vocale. Si Speech-to-Text peut déjà reconnaître correctement une expression, il n'est pas nécessaire de l'ajouter dans paramètres d'adaptation vocale. Si vous remarquez quelques expressions que Speech-to-Text mal reconnue sur une page ou un flux, vous pouvez ajouter les bonnes expressions à paramètres d'adaptation correspondants.

Exemple de correction des erreurs de reconnaissance

Voici un exemple d'utilisation de l'adaptation vocale pour corriger la reconnaissance les problèmes de sécurité. Supposons que vous conceviez un agent commercial d'appareil téléphonique, et l'utilisateur peut soit dire quelque chose, y compris les phrases "vendre des téléphones". ou "téléphone portable" après que l'agent a posé sa première question "Comment pouvons-nous vous aider ?". Comment pouvons-nous utiliser l'adaptation vocale pour améliorer la précision de la reconnaissance des deux phrases ?

Si vous incluez les deux phrases dans les paramètres d'adaptation, Speech-to-Text peut encore se confondre, car ils se ressemblent. Si vous ne fournissez qu'une expression sur deux, Speech-to-Text peut confondre une phrase avec l'autre. Pour améliorer la précision de la reconnaissance vocale pour les deux phrases, vous devez fournir à Speech-to-Text plus d'indices contextuels faire la distinction entre les moments où il devrait entendre "vendre des téléphones" et au lieu d'entendre "téléphone portable". Par exemple, vous remarquerez peut-être que les gens utilisent souvent l'expression "vente de téléphones" dans le cadre d'énoncés tels que "comment vendre des téléphones", "je veux vendre des téléphones" ou "vendez-vous des téléphones", alors que "téléphone portable" dans des énoncés comme "acheter un téléphone portable", "facture de téléphone mobile", et "service de téléphonie mobile". Si vous fournissez ces expressions plus précises au modèle au lieu des courtes phrases originales "téléphone portable" et "vendre des téléphones", Speech-to-Text vous apprendrez que "vendre téléphone" en tant qu'expression verbale est plus susceptible de suivre les mots comme "comment", "vouloir" et « est-ce que vous », tandis que « téléphone portable » en tant que nom L'expression est plus susceptible de suivre des mots comme "achat" ou être suivie par des mots comme "facture" ou "service". En règle générale, pour configurer d'adaptation, il est généralement préférable de fournir des expressions plus précises comme "comment vendre des téléphones" ou "vendez-vous des téléphones ?" que de n'inclure que "vendre téléphone".

2. Jetons de classe de reconnaissance vocale

Outre les mots en langage naturel, vous pouvez intégrer des références les jetons de classe vocale en une phrase. Jetons de classe de reconnaissance vocale représentent des concepts courants qui suivent généralement certains format par écrit. Par exemple, pour le numéro d'adresse dans une adresse telle que « 123 Main Street », les gens s'attendent généralement à voir un numéro d'adresse format numérique "123" dans une adresse, et non dans sa version intégrale "cent vingt-trois". Si vous pensez que une certaine mise en forme dans les résultats de transcription, en particulier pour les caractères alphanumériques séquences, consultez le liste des jetons de classe compatibles pour voir les jetons disponibles pour votre langue et votre cas d'utilisation.

Si la page contient déjà des routes ou des paramètres d'intent avec Des références à des entités système Voici un tableau de référence pour les mappages entre des entités système courantes Jetons de classe vocale:

Entités système Jetons de classe de reconnaissance vocale
@sys.date $MONTH $DAY $YEAR
@sys.date-time $MONTH $DAY $YEAR
@sys.date-period $MONTH $DAY $YEAR
@sys.time $TIME
@sys.time-period $TIME
@sys.age $OPERAND
@sys.number $OPERAND
@sys.number-integer $OPERAND
@sys.cardinal $OPERAND
@sys.ordinal $OPERAND
@sys.percentage $OPERAND
@sys.duration $OPERAND
@sys.currency-name $MONEY
@sys.unit-currency $MONEY
@sys.phone-number $FULLPHONENUM
@sys.zip-code $POSTALCODE ou $OOV_CLASS_POSTALCODE
@sys.address $ADDRESSNUM $STREET $POSTALCODE
@sys.street-address $ADDRESSNUM $STREET $POSTALCODE
@sys.temperature $OOV_CLASS_TEMPERATURE
@sys.number-sequence $OOV_CLASS_DIGIT_SEQUENCE
@sys.flight-number $OOV_CLASS_ALPHANUMERIC_SEQUENCE

3. Valeur d'amélioration

Si l'ajout d'expressions sans valeur d'amélioration n'entraîne pas un effet de pondération suffisamment important, vous pouvez utiliser la valeur d'amélioration pour renforcer davantage l'effet de la pondération de l'adaptation vocale.

La fonction "Boost" applique un biais supplémentaire lorsqu'elle est définie sur des valeurs supérieures à 0 et ne dépassant pas 20. Lorsque l'optimisation est vide ou nulle, l'effet de pondération par défaut permet de reconnaître la phrase entière et les portions continues de la phrase. Par exemple, un phrase non boostée : "Êtes-vous prêt à vendre des téléphones" aide à reconnaître cette expression et des expressions similaires comme "Je vends des téléphones" et "Bonjour are you open".

Lorsque l'amélioration positive est appliquée, l'effet de la pondération est plus fort, s'applique à l'expression exacte. Par exemple, l'expression "vendre des téléphones" optimisée. permet de savoir si vous pouvez vendre des téléphones ? mais pas "Vendez-vous des téléphones ?".

C'est pourquoi vous obtiendrez de meilleurs résultats si vous spécifiez à la fois des expressions avec et sans boosting.

Des valeurs d'amélioration élevées peuvent réduire le nombre de faux négatifs. Dans ce cas, le mot ou l'expression s'est produit dans le contenu audio, mais n'a pas été correctement reconnu par Speech-to-Text (sous-bias). Toutefois, l'amélioration peut aussi augmenter la probabilité de faux positifs : c'est-à-dire les cas où le mot ou la phrase apparaît dans la transcription même s'il n'est pas présent dans l'audio (biais excessif). Vous devez généralement affiner vos expressions de pondération afin de trouver un bon compromis entre les deux problèmes de pondération.

Pour en savoir plus sur l'optimisation de la valeur d'amélioration des expressions, Documentation Cloud Speech sur Boost

Quand utiliser l'adaptation vocale automatique ou manuelle ?

En général, si vous n'êtes pas sûr que l'adaptation vocale améliorera la reconnaissance vocale la qualité de la reconnaissance de l'agent (pas de schémas d'erreurs de transcription clairs à l'esprit) ; nous vous encourageons à essayer d'abord l'adaptation vocale automatique avant de recourir à l'adaptation vocale manuelle. Pour prendre des décisions plus nuancées, tenez compte des facteurs suivants pour choisir entre l'adaptation vocale automatique ou adaptation vocale manuelle:

1. Remplissage de formulaire

L'adaptation vocale automatique fonctionne très bien avec remplissage de formulaire car il utilise le contexte grammatical ABNF. pour les paramètres de formulaire et applique les règles grammaticales en fonction de leurs types d'entités. Étant donné que l'adaptation vocale manuelle n'est pas encore compatible avec les grammaires ABNF, L'adaptation vocale automatique est généralement préférable par rapport à l'adaptation vocale manuelle pour une page de remplissage de formulaire. Toujours pour les pages contenant uniquement les paramètres d'entité système et les entités d'expression régulière simples compatibles avec jetons de classe de synthèse vocale, vous pouvez également utiliser l'adaptation vocale manuelle pour obtenir un effet de biais semblable à celui l'adaptation vocale automatique sans qu'il soit nécessaire d'ajuster les entités d'expression régulière.

2. Complexité de transition de page ou de flux

Pour une page ou un flux simple avec quelques routes d'intent, l'adaptation vocale automatique générera probablement des expressions de pondération représentatives et fonctionnent assez bien.

Toutefois, si une page ou un flux comporte de nombreuses routes d'intent (pour une page, veuillez également tenir compte du nombre d'itinéraires au niveau du flux) Si l'un des intents contient des phrases d'entraînement trop longues ou trop courtes, sans importance (par exemple, une phrase entière ou un seul mot ne comportant qu'une ou deux syllabes) il est très probable que le modèle d'adaptation vocale ne fonctionne pas bien avec ces phrases. Vous devez d'abord essayer de désactiver l'adaptation vocale pour les pages ouvertes avec une grande complexité en activant l'adaptation vocale manuelle avec des ensembles d'expressions vides (remplacement d'adaptation vide). Ensuite, évaluez si des phrases spéciales non ambiguës doivent encore être fournies à la conversion vocale pour améliorer la qualité de la reconnaissance.

Un autre symptôme de ce problème de complexité est l'existence d'un large éventail problèmes de sous-bias ou de biais excessifs lorsque l'adaptation vocale automatique est activée. Comme dans le cas ci-dessus, vous devez également effectuer des tests avec l'adaptation vocale. désactivée pour la page spécifique. Si les comportements incorrects persistent après avoir désactivé l'adaptation vocale, vous pouvez ajouter les expressions que vous voulez corriger dans d'adaptation vocale, et même ajouter des valeurs d'amélioration pour renforcer davantage les effets de la pondération, si nécessaire.

Tester l'adaptation vocale

Lors du test des capacités d'adaptation vocale de votre agent pour une expression d'entraînement ou une correspondance d'entité spécifique, vous ne devez pas passer directement au test de la correspondance par le premier énoncé vocal d'une conversation. Vous ne devez utiliser que des entrées vocales ou d'événement pour l'ensemble de la conversation avant la correspondance que vous souhaitez tester. Comportement de votre agent lorsqu'il est testé de cette manière sera similaire au comportement des conversations de production réelles.

Limites

Les limites suivantes s'appliquent :

  • L'adaptation vocale n'est pas disponible pour tous les modèles vocaux et combinaisons de langues. Reportez-vous à la page d'assistance pour les langages Cloud Speech pour vérifier si "adaptation du modèle" est disponible pour votre modèle de reconnaissance vocale et votre combinaison de langues.
  • Actuellement, l'adaptation manuelle de la parole n'est pas encore compatible avec les classes personnalisées ni la grammaire ABNF. Vous pouvez activer l'adaptation vocale automatique ou utiliser l'environnement d'exécution de détection d'intent pour utiliser ces fonctionnalités d'adaptation.

  • Une même valeur d'amélioration peut se comporter différemment selon les modèles de reconnaissance vocale et Vous devez donc faire preuve de prudence lorsque vous les configurez manuellement pour les agents plusieurs langues ou modèles de reconnaissance vocale. Actuellement, l'adaptation vocale manuelle s'applique à toutes les langues d'un agent, les agents multilingues N'utilisez que des expressions qui ne reposent pas sur la maîtrise d'une langue un agent. Étant donné que le comportement de pondération par défaut (n'indiquant pas l'optimisation ni l'optimisation 0), fonctionne assez bien pour tous les langages et modèles, configurer des valeurs d'optimisation spécifiques à la langue, sauf si une pondération plus forte est requises pour votre cas d'utilisation de la reconnaissance. Vous pouvez en savoir plus sur la façon de d'affiner la valeur d'augmentation Guide Cloud Speech-to-Text

  • La reconnaissance des séquences de caractères longues est difficile. Le nombre de caractères capturés en un seul tour sont directement liés à la qualité du son d'entrée. Si vous avez suivi toutes les consignes concernant les entités d'expression régulière et essayé d'utiliser des jetons de classe vocale pertinents dans les paramètres d'adaptation vocale manuelle, mais que vous ne parvenez toujours pas à capturer l'ensemble de la séquence en un seul tour, vous pouvez envisager d'autres alternatives de conversation :
    • Lorsque vous validez la séquence par rapport à une base de données, pensez à faire référence aux autres paramètres collectés, tels que les dates, les noms ou les numéros de téléphone, afin d'autoriser les correspondances incomplètes. Par exemple, au lieu de demander simplement un numéro de commande à un utilisateur, demandez également son numéro de téléphone. Désormais, lorsque votre webhook interroge votre base de données pour connaître l'état de la commande, il s'appuie d'abord sur le numéro de téléphone, puis renvoie le numéro de commande correspondant le plus proche pour ce compte. Cela peut permettre à Dialogflow d'identifier "ABC" en tant que "AVC", mais de toujours renvoyer le correct état de la commande pour l'utilisateur.
    • Pour les séquences plus longues, envisagez de créer un flux qui encourage les utilisateurs finaux à faire une pause au milieu afin que le bot puisse confirmer au fur à mesure.