Sprachanpassung

Wenn Sie eine Anfrage zur Intent-Erkennung stellen, können Sie optional phrase_hints um dem Spracherkennungssystem Hinweise zu geben. Diese Hinweise können in einem bestimmten Unterhaltungsstatus bei der Erkennung helfen.

Automatische Sprachanpassung

Das Feature zur automatischen Sprachanpassung verbessert die Genauigkeit der Spracherkennung Ihres Agents, indem automatisch der Unterhaltungsstatus verwendet wird, um relevante Entitäten und Trainingsformulierungen als Sprachkontexthinweise für alle Anfragen zur Intent-Erkennung zu übergeben. Diese Funktion ist standardmäßig deaktiviert.

Automatische Sprachanpassung aktivieren oder deaktivieren

So aktivieren oder deaktivieren Sie die automatische Sprachanpassung:

Console

  1. Öffnen Sie die Dialogflow CX Console.
  2. Wählen Sie Ihr GCP-Projekt aus.
  3. Wählen Sie den Agent aus.
  4. Klicken Sie auf Agent-Einstellungen.
  5. Klicken Sie auf den Tab Sprache und IVR.
  6. Aktivieren oder deaktivieren Sie Automatische Sprachanpassung aktivieren.
  7. Klicken Sie auf Speichern.

API

Siehe die Methoden get und patch/update für den Typ Agent.

Wählen Sie ein Protokoll und eine Version für die Agent-Referenz aus:

Protokoll V3 V3beta1
REST Kundenservicemitarbeiter-Ressource Agent-Ressource
RPC Kundenservicemitarbeiter-Oberfläche Kundenservicemitarbeiter-Oberfläche
C++ AgentsClient Nicht verfügbar
C# AgentsClient Nicht verfügbar
Go AgentsClient Nicht verfügbar
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP Nicht verfügbar Nicht verfügbar
Python AgentsClient AgentsClient
Ruby Nicht verfügbar Nicht verfügbar

Agent-Design mit verbesserter Spracherkennung

Wenn die automatische Sprachanpassung aktiviert ist, können Sie Ihren Agent so erstellen, dass Sie ihn zu Ihrem Nutzen verwenden können. In den folgenden Abschnitten wird erläutert, wie die Spracherkennung durch bestimmte Änderungen an den Trainingsformulierungen und Entitäten Ihres Agents verbessert werden kann.

Trainingssätze

  • Wenn Sie Trainingsformulierungen mit einer Formulierung wie „stuffy nose“ definieren, wird eine ähnlich klingende Nutzeräußerung zuverlässig als „stuffy nose“ und nicht als „stuff he knows“ erkannt.
  • Wenn Sie eine erforderlicher Parameter das Dialogflow dazu zwingt, Formularausfüllen Prompts, automatische Sprachanpassung wird die zu füllende Entität stark bevorzugt.

In allen Fällen berücksichtigt die automatische Sprachanpassung lediglich die Spracherkennung, ohne sie zu beschränken. Beispiel: Auch wenn Dialogflow einen Nutzer zur Eingabe eines erforderlichen Parameters auffordert, können Nutzer weiterhin andere Intents auslösen, z. B. einen Intent der obersten Ebene „Mit Mitarbeiter sprechen“.

Systementitäten

Wenn Sie eine Trainingsformulierung definieren, die die @sys.number verwendet Systementität , und die Endanwendenden sagen: „Ich möchte zwei“, als „to“, „too“, „2“ oder „two“.

Wenn die automatische Sprachanpassung aktiviert ist, verwendet Dialogflow bei der Spracherkennung die Entität @sys.number als Hinweis. Der Parameter wird mit größerer Wahrscheinlichkeit als „2“ extrahiert.

Benutzerdefinierte Entitäten

  • Wenn Sie eine benutzerdefinierte Entität für Produkt- oder Dienstleistungsnamen, die von Ihrem Unternehmen angeboten werden, definieren und der Endnutzer diese Begriffe in einer Äußerung erwähnt, werden sie eher erkannt. Die Trainingsformulierung „I love Dialogflow“, wobei „Dialogflow“ als @product-Entität annotiert ist, gibt der automatischen Sprachanpassung vor, sich an „I love Dialogflow“, „I love Cloud Speech“ und anderen Einträgen in der @product-Entität zu orientieren.

  • Es ist besonders wichtig, dass Sie präzise Entitätssynonyme definieren, wenn Sie Dialogflow zur Spracherkennung verwenden. Angenommen, Sie haben zwei @product-Entitätseinträge, „Dialogflow“ und „Dataflow“. Ihre Synonyme für „Dialogflow“ sind beispielsweise „Dialogflow“, „dialogue flow“, „dialogue builder“, „Speaktoit“, „speak to it“, „API.ai“, „API dot AI“. Diese Synonyme sind gut, da sie die gängigsten Varianten abdecken. Sie müssen „the dialogue flow builder“ nicht hinzufügen, da dies von „dialogue flow“ bereits abgedeckt ist.

  • Nutzeräußerungen mit aufeinanderfolgenden, aber separaten Zahlenentitäten können mehrdeutig sein. Beispiel: „I want two sixteen packs“ könnten 2 Pakete mit 16 Sets oder 216 Mengen bedeuten. Durch die Sprachanpassung lassen sich solche Fälle eindeutig unterscheiden, wenn Sie Entitäten mit buchstabierten Werten einrichten:
    • Definieren Sie eine quantity-Entität mit folgenden Einträgen:
      zero
      one
      ...
      twenty
    • Definieren Sie eine product- oder size- Entität mit folgenden Einträgen:
      sixteen pack
      two ounce
      ...
      five liter
    • In der Sprachanpassung werden nur Entitätssynonyme verwendet. Sie können also eine Entität mit dem Referenzwert 1 und dem einzelnen Synonym one definieren, um die Auftragsausführungslogik zu vereinfachen.

RegExp-Entitäten

RegExp-Entitäten können bei korrekter Konfiguration und ‑prüfung die automatische Sprachanpassung für alphanumerische und Ziffernsequenzen wie „ABC123“ oder „12345“ auslösen.

Wenn Sie diese Sequenzen über Sprache erkennen möchten, müssen Sie alle vier der folgenden Anforderungen implementieren:

1. Regexp-Eingabeanforderung

Jeder reguläre Ausdruck lässt sich zum Extrahieren von Entitäten aus Texteingaben verwenden, aber nur bestimmte Ausdrücke geben der automatischen Sprachanpassung vor, vorwiegend buchstabierte alphanumerische oder Ziffernsequenzen zu berücksichtigen.

In der RegExp-Entität muss mindestens ein Eintrag allen folgenden Regeln entsprechen:

  • Muss mit einigen alphanumerischen Zeichen übereinstimmen, z. B. \d, \w, [a-zA-Z0-9]
  • Darf keine Leerzeichen,   oder \s enthalten, wobei \s* und \s? zulässig sind
  • Darf keine Erfassungsgruppen oder Nicht-Erfassungsgruppen () enthalten
  • Es darf nicht nach Sonder- oder Satzzeichen wie folgenden suchen: ` ~ ! @ # $ % ^ & * ( ) - _ = + , . < > / ? ; ' : " [ ] { } \ |

Dieser Eintrag kann Zeichensätze [] und Wiederholungsquantifizierer wie *, ?, + oder {3,5} enthalten.

Beispiele

2. Anforderung an die Parameterdefinition

Markieren Sie die RegExp-Entität als erforderlichen Formularparameter, damit er während des Ausfüllens des Formulars erfasst werden kann. Dadurch kann die automatische Sprachanpassung stark auf die Sequenzerkennung ausgerichtet werden, anstatt zu versuchen, einen Intent und eine Sequenz gleichzeitig zu erkennen. Andernfalls könnte „Wo ist mein Paket für ABC123“ als „Wo ist mein Paket 4ABC123“ falsch erkannt werden.

3. Anforderung an die Anmerkung von Trainingsformulierungen

Verwenden Sie nicht die Regexp-Entität für Anmerkung für Intent-Trainingsformulierungen. Dadurch wird der Parameter beim Ausfüllen des Formulars aufgelöst.

4. Testanforderung

Siehe Sprachanpassung testen.

Beispiele

Beispielsweise löst eine RegExp-Entität mit einem einzelnen Eintrag ([a-zA-Z0-9]\s?){5,9} nicht die Sprachsequenzerkennung aus, da sie eine Erfassungsgruppe enthält. Um das Problem zu beheben, fügen Sie einfach einen weiteren Eintrag für [a-zA-Z0-9]{5,9} hinzu. Nun profitieren Sie von der Sequenzerkennung, wenn Sie „ABC123“ abgleichen, aber die NLU ordnet noch Eingaben wie „ABC 123“ zu, dank der ursprünglichen Regel, die Leerzeichen zulässt.

Die folgenden Beispiele für reguläre Ausdrücke passen sich für alphanumerische Sequenzen an:

^[A-Za-z0-9]{1,10}$
WAC\d+
215[2-8]{3}[A-Z]+
[a-zA-Z]\s?[a-zA-Z]\s?[0-9]\s?[0-9]\s?[0-9]\s?[a-zA-Z]\s?[a-zA-Z]

Die folgenden Beispiele für reguläre Ausdrücke passen sich für Ziffernsequenzen an:

\d{2,8}
^[0-9]+$
2[0-9]{7}
[2-9]\d{2}[0-8]{3}\d{4}
Regexp-Problemumgehung

Die integrierte Unterstützung einer automatischen Sprachanpassung für RegExp-Entitäten variiert je nach Sprache. Unter Sprachklassen-Tokens finden Sie die unterstützten Sprachen $OOV_CLASS_ALPHANUMERIC_SEQUENCE und $OOV_CLASS_DIGIT_SEQUENCE.

Ist Ihre Sprache nicht aufgeführt, können Sie diese Einschränkung umgehen. Wenn Sie beispielsweise möchten, dass eine Mitarbeiter-ID, bei der auf drei Buchstaben drei Ziffern folgen, richtig erkannt wird, können Sie den Agent mit den folgenden Entitäten und Parametern erstellen:

  • Definieren Sie eine digit-Entität, die 10 Entitätseinträge (mit Synonymen) enthält:
    0, 0
    1, 1
    ...
    9, 9
  • Definieren Sie eine letter-Entität, die 26 Entitätseinträge (mit Synonymen) enthält:
    A, A
    B, B
    ...
    Z, Z
  • employee-id-Entität definieren, die einen einzelnen Entitätseintrag enthält (ohne Synonyme):
    @letter @letter @letter @digit @digit @digit
  • Verwenden Sie @employee-id als Parameter in einer Trainingsformulierung.
.

Manuelle Sprachanpassung

Bei der manuellen Sprachanpassung können Sie Sprachanpassungsphrasen für einen Ablauf oder eine Seite manuell konfigurieren. Außerdem werden implizite Sprachkontexte überschrieben, die durch die automatische Sprachanpassung generiert werden, wenn diese aktiviert ist.

Die Sprachadaptierungseinstellungen auf Ablauf- und Seitenebene haben eine hierarchische Beziehung. Das bedeutet, dass eine Seite standardmäßig die Sprachadaptierungseinstellungen von der Ablaufebene erbt und die detailliertere Seitenebene die Ablaufebene immer überschreibt, wenn die Seite eine benutzerdefinierte Einstellung hat.

Für die Sprachanpassung, die Einstellung der Flussebene und die Einstellung auf Seitenebene unabhängig voneinander aktiviert werden. Wenn die Einstellung für die Anpassung auf Flussebene nicht aktiviert ist, können Sie auf Seitenebene weiterhin Anpassen auswählen, um die manuelle Sprachanpassung für diese Seite zu aktivieren. Ebenso verhält es sich, wenn Sie manuelle Sprachanpassung in der Einstellung für die Ablaufebene, Seiten im Fluss mit Die Option Anpassen ist davon nicht betroffen.

Die Einstellung auf Fluss- und Seitenebene können jedoch nicht unabhängig voneinander deaktiviert werden. Wenn für einen Ablauf die manuelle Sprachanpassung aktiviert ist, können Sie sie für einen unter der Option Anpassen. Wenn Sie also eine gemischte Nutzung von manueller Sprachanpassung und automatischer Sprachanpassung für Seiten innerhalb eines Ablaufs sollten Sie die manuelle Sprachanpassung nicht auf Ablaufebene aktivieren. sollten stattdessen nur Anpassungseinstellungen auf Seitenebene verwenden. In der folgenden Tabelle sehen Sie, welche Kombination aus Ablauf und Seiteneinstellung Sie für Ihre Anpassung verwenden sollten.

Zieleffekt Empfohlene Verwendung der Anpassungseinstellungen
Automatische Anpassung für einen Ablauf deaktivieren Der Ablauf ist ohne Wortgruppensätze aktiviert (für Seiten innerhalb des Ablaufs wird standardmäßig die Ablaufeinstellung verwendet).
Automatische Anpassung für eine Seite deaktivieren Der Ablauf ist deaktiviert und die Seite ist aktiviert (Anpassen ausgewählt) und es gibt keine Wortgruppen.
Manuelle Sprachanpassung nur für alle Seiten innerhalb eines Ablaufs verwenden Ablauf aktiviert. Passen Sie Seiten an, auf denen andere Wortgruppen als der Ablauf verwendet werden müssen.
Automatische und manuelle Anpassung innerhalb eines Ablaufs kombinieren Ablauf deaktiviert. Passen Sie Seiten an, die manuell angepasst werden sollen.
Die automatische Sprachanpassung nur für alle Seiten innerhalb eines Navigationspfads verwenden Ablauf deaktiviert.

Manuelle Sprachanpassung aktivieren oder deaktivieren

So aktivieren oder deaktivieren Sie die manuelle Sprachanpassung auf Ablauf- oder Seitenebene:

Ablaufeinstellungen

  1. Öffnen Sie die Dialogflow CX Console.
  2. Wählen Sie Ihr GCP-Projekt aus.
  3. Bewegen Sie den Mauszeiger im Abschnitt Abläufe über den Ablauf.
  4. Klicken Sie auf die Schaltfläche für die Optionen .
  5. Wählen Sie im Drop-down-Menü Flow Settings (Ablaufeinstellungen) aus.
  6. Klicken Sie das Kästchen Manuelle Sprachanpassung aktivieren an oder entfernen Sie das Häkchen.
  7. Wortgruppensätze in der Tabelle für Wortgruppensätze bearbeiten, hinzufügen oder löschen
  8. Klicken Sie auf Speichern.

Seiteneinstellungen

  1. Öffnen Sie die Dialogflow CX Console.
  2. Wählen Sie Ihr GCP-Projekt aus.
  3. Bewegen Sie den Mauszeiger im Abschnitt Seiten über die Seite.
  4. Klicken Sie auf die Schaltfläche für die Optionen .
  5. Wählen Sie im Drop-down-Menü Seiteneinstellungen aus.
  6. Standardmäßig ist Ablaufebene verwenden ausgewählt. Wenn diese Option ausgewählt wird, Anpassungsformulierungen auf Flussebene werden für diese Seite wiederverwendet. Sie können Anpassen auswählen, um Anpassungsformulierungen zu konfigurieren, die sich von Einstellungen für die Blutungsflussebene. Auch wenn die manuelle Sprachanpassung deaktiviert ist, können Sie weiterhin die manuelle Sprachanpassung für indem Sie die Option Anpassen auswählen.
  7. Wortgruppensatz in der Tabelle mit Anpassungssätzen bearbeiten, hinzufügen oder löschen
  8. Klicken Sie auf Speichern.

Manuelle Konfiguration des Satzes zur Verbesserung der Spracherkennung

1. Wörter und Wortgruppen

In einem Satz mit Wortgruppen für die Anpassung können Sie einzelne Wörter oder Wortgruppen mit optionalen Verweisen auf Sprachklassen-Tokens definieren. Sie können beispielsweise Begriffe wie „super Preis“, „die Sendungsnummer lautet $OOV_CLASS_ALPHANUMERIC_SEQUENCE“ oder „$FULLPHONENUM“ hinzufügen. Dadurch wird die Wahrscheinlichkeit erhöht, dass diese Wortgruppen anstelle anderer phonetisch ähnlicher Wortgruppen transkribiert werden. Wenn Sie eine Wortgruppe mit mehreren Wörtern ohne Optimierung hinzufügen, wird die Voreingenommenheit sowohl auf die gesamte Wortgruppe als auch auf die zusammenhängenden Teile innerhalb der Wortgruppe angewendet. Im Allgemeinen ist die Anzahl der Wortgruppen sollten klein gehalten werden und Sie sollten nur Sätze hinzufügen, ohne Sprachanpassung richtig zu machen. Wenn Speech-to-Text bereits eine Wortgruppe richtig zu erkennen, ist es nicht nötig, diese Wortgruppe Sprachanpassung. Wenn Sie einige Sätze sehen, die Speech-to-Text häufig auf einer Seite oder in einem Besucherfluss falsch erkennt, können Sie entsprechende Anpassungseinstellungen.

Beispiel für die Korrektur eines Erkennungsfehlers

Hier ein Beispiel dafür, wie Sie mit der Sprachanpassung Probleme bei der Erkennung beheben können. Angenommen, Sie entwerfen einen Telefongeräte-Handelspartner kann der Nutzer z. B. etwas sagen wie „Telefone verkaufen“. oder "Handy" nachdem der Kundenservicemitarbeiter seine erste Frage gestellt hat: „Wobei benötigen Sie Hilfe?“. Wie können wir dann die Sprachanpassung verwenden, um die Erkennungsgenauigkeit für beide Wortgruppen zu verbessern?

Wenn Sie beide Formulierungen in den Anpassungseinstellungen verwenden, Speech-to-Text kann immer noch verwirrt sein, da sie ähnlich klingen. Wenn Sie nur eine der beiden Wortgruppen angeben, erkennt Speech-to-Text möglicherweise eine der beiden falsch. Um die Spracherkennungsgenauigkeit für beide Wortgruppen zu verbessern, müssen Sie Speech-to-Text mehr Kontexthinweise zur Verfügung stellen, damit es unterscheiden kann, wann „Smartphones verkaufen“ und wann „Smartphone“ gemeint ist. Beispielsweise verwenden Nutzer häufig „Smartphones verkaufen“ in Sätzen wie „Wie verkaufe ich Smartphones?“, „Möchte Smartphones verkaufen“ oder „Verkaufen Sie Smartphones?“, während „Smartphone“ in Sätzen wie „Smartphone kaufen“, „Smartphone-Rechnung“ und „Smartphone-Service“ verwendet wird. Wenn Sie dem Modell diese genaueren Wortgruppen zur Verfügung stellen, anstelle der kurzen ursprünglichen Sätze "Handy" „Smartphones verkaufen“, Speech-to-Text dass „Smartphone verkaufen“ da eine Verbphrase eher nach den Wörtern folgt. wie „Anleitung“, „Möchte ich“ und „Tust du?“, während „Handy“ als Substantiv eine Wortgruppe folgt eher nach Wörtern wie „Kauf“ oder eine Benachrichtigung Wörter wie „Bill“ oder „Dienstleistung“. Als Faustregel für die Konfiguration von Anpassungsphrasen gilt daher, dass es besser ist, genauere Formulierungen wie „Wie verkaufe ich Smartphones?“ oder „Verkaufen Sie Smartphones?“ anzugeben, als nur „Smartphone verkaufen“.

2. Tokens für die Sprachklasse

Neben Wörtern in natürlicher Sprache können Sie auch Verweise auf Sprachklassen-Tokens in eine Wortgruppe einbetten. Tokens für Sprachklassen gängige Konzepte dargestellt, die in der Regel bestimmten schriftlich festhalten. Für die Adressnummer in einer Adresse wie „Hauptstraße 123“ erwartet man normalerweise die Nummer Zahlenformat: „123“ in einer Adresse anstelle der vollständig ausgeschriebenen Version „einhundertdreiundzwanzig“. Wenn Sie eine bestimmte Formatierung in den Transkriptionsergebnissen erwarten, insbesondere für alphanumerische Sequenzen, sehen Sie in der Liste der unterstützten Klassentokens nach, welche Tokens für Ihre Sprache und Ihren Anwendungsfall verfügbar sind.

Wenn die Seite bereits Intent-Routen oder -Parameter mit Verweis auf Systementitäten enthält, finden Sie hier eine Referenztabelle für Zuordnungen zwischen gängigen Systementitäten und Sprachklassen-Tokens:

Systementitäten Sprachklassentokens
@sys.date $MONTH $DAY $YEAR
@sys.date-time $MONTH $DAY $YEAR
@sys.date-period $MONTH $DAY $YEAR
@sys.time $TIME
@sys.time-period $TIME
@sys.age $OPERAND
@sys.number $OPERAND
@sys.number-integer $OPERAND
@sys.cardinal $OPERAND
@sys.ordinal $OPERAND
@sys.percentage $OPERAND
@sys.duration $OPERAND
@sys.currency-name $MONEY
@sys.unit-currency $MONEY
@sys.phone-number $FULLPHONENUM
@sys.zip-code $POSTALCODE oder $OOV_CLASS_POSTALCODE
@sys.address $ADDRESSNUM $STREET $POSTALCODE
@sys.street-address $ADDRESSNUM $STREET $POSTALCODE
@sys.temperature $OOV_CLASS_TEMPERATURE
@sys.number-sequence $OOV_CLASS_DIGIT_SEQUENCE
@sys.flight-number $OOV_CLASS_ALPHANUMERIC_SEQUENCE

3. Optimierungswert

Wenn das Hinzufügen von Wortgruppen ohne den Boosting-Wert nicht zu einer ausreichend starken Gewichtung führt, können Sie den Optimierungswert verwenden, um den Effekt der Sprachanpassung weiter zu verstärken.

Die Boost-Funktion wendet eine zusätzliche Verzerrung an, wenn sie auf Werte größer als 0 und maximal 20. Wenn „Boost“ leer oder „0“ ist, hilft der Standardeffekt zur Voreinnahme, die gesamte Wortgruppe und die zusammenhängenden Teile innerhalb der Wortgruppe zu erkennen. Beispiel: nicht verbesserte Wortgruppe „haben Sie Interesse daran, Telefone zu verkaufen“ diese Wortgruppe erkennen, und ähnliche Wortgruppen wie „Ich verkaufe Smartphones“ und „Hallo haben Sie geöffnet?“.

Bei einem positiven Boost ist der Voreingenommenheitseffekt stärker, er gilt aber nur für die genaue Wortgruppe. Zum Beispiel die verbesserte Formulierung „Smartphones verkaufen“. erkennen Sie, ob Sie Smartphones verkaufen können. aber nicht „verkaufen Sie Smartphones“.

Aus diesen Gründen erzielen Sie die besten Ergebnisse, wenn Sie Wortgruppen mit und ohne Optimierung angeben.

Höhere Verstärkerwerte können zu weniger falsch negativen Ergebnissen führen. Das sind Fälle, in denen das Wort oder die Wortgruppe in der Audiodatei aufgetreten, aber von Speech-to-Text nicht richtig erkannt (Unterverzerrung). Durch die Optimierung kann aber auch die Wahrscheinlichkeit von falsch-positiven Ergebnissen erhöht werden. Das sind Ergebnisse, bei denen das Wort oder die Wortgruppe in der Transkription vorkommt, obwohl es nicht in den Audiodaten enthalten ist (Übergewichtung). Normalerweise müssen Sie Ihre Gewichtungsformulierungen optimieren, um einen guten Kompromiss zwischen den beiden Problemen mit der Gewichtung zu finden.

Weitere Informationen zum Optimieren des Werts für die Betonung von Wortgruppen finden Sie im Artikel zur Betonung in Cloud Speech.

Wann sollte die automatische oder manuelle Sprachanpassung verwendet werden?

Wenn Sie sich nicht sicher sind, ob sich die Sprachanpassung durch die Sprachanpassung verbessern wird, Erkennungsqualität für Ihren Agent (keine klaren Transkriptionsfehlermuster) sollten Sie zuerst die automatische Sprachanpassung ausprobieren bevor Sie zur manuellen Sprachanpassung übergehen. Für eine fundiertere Entscheidung sollten Sie die folgenden Faktoren berücksichtigen, um zwischen automatischer und manueller Sprachanpassung zu wählen:

1. Formular ausfüllen

Die automatische Sprachanpassung eignet sich gut für Ausfüllen von Formularen da sie den ABNF-Grammatikkontext verwendet für die Formularparameter und erzwingt Grammatikregeln basierend auf ihren Entitätstypen. Da die manuelle Sprachanpassung noch keine ABNF-Grammatiken unterstützt, wird für eine Seite zum Ausfüllen von Formularen in der Regel die automatische Sprachanpassung bevorzugt. Bei Seiten mit nur Systementitätsparametern und einfachen regulären Ausdrucksentitäten, die von Sprachklassen-Tokens unterstützt werden, können Sie auch die manuelle Sprachanpassung verwenden, um einen ähnlichen Voreingenommenheitseffekt wie bei der automatischen Sprachanpassung zu erzielen, ohne reguläre Ausdrucksentitäten anpassen zu müssen.

2. Komplexität des Seiten- oder Ablaufwechsels

Bei einer einfachen Seite oder einem Ablauf mit einigen Intent-Routen durch die automatische Sprachanpassung werden wahrscheinlich repräsentative Formulierungen zur Gewichtung generiert. und eine angemessene Leistung erzielen.

Wenn eine Seite oder ein Ablauf jedoch eine große Anzahl von Intent-Routen enthält, (berücksichtigen Sie bei einer Seite auch die Anzahl der Routen auf Ablaufebene) oder Intents mit übermäßig langen oder kurzen unwichtigen Trainingsformulierungen (z. B. ein ganzer Satz oder ein einzelnes Wort mit nur einer oder zwei Silben), funktioniert das Sprachanpassungsmodell höchstwahrscheinlich nicht gut mit diesen Formulierungen. Sie sollten zuerst versuchen, die Sprachanpassung für die offenen Seiten zu deaktivieren. mit hoher Komplexität dank der manuellen Sprachanpassung. mit leeren Wortgruppen (leere Anpassungsüberschreibung). Danach beurteilen, ob es spezielle, eindeutige Wortgruppen gibt die noch für Speech-to-Text bereitgestellt werden müssen, um die Erkennungsqualität zu verbessern.

Ein weiteres Symptom dieses Komplexitätsproblems ist, dass eine Vielzahl von Probleme mit einer Unter- oder Überlastung auftreten, wenn die automatische Sprachanpassung aktiviert ist. Ähnlich wie im obigen Fall müssen Sie zuerst die Sprachanpassung für die jeweilige Seite deaktivieren. Wenn nach der Deaktivierung der Sprachanpassung weiterhin fehlerhafte Verhaltensweisen auftreten, können Sie die Wortgruppen, die Sie korrigieren möchten, Einstellungen für die Sprachanpassung und Verstärkung um bei Bedarf die Verzerrungseffekte zu verstärken.

Sprachanpassung wird getestet

Wenn Sie die Sprachadaptierungsfunktionen Ihres Agents für eine bestimmte Trainingsphrase oder Entitätsübereinstimmung testen, sollten Sie nicht direkt mit dem Testen der Übereinstimmung mit der ersten Sprachäußerung einer Unterhaltung beginnen. Verwenden Sie für die gesamte Unterhaltung vor dem Abgleich, den Sie testen möchten, nur Sprach- oder Ereigniseingaben. Das Verhalten des Agents bei diesem Test ähnelt dem Verhalten in tatsächlichen Produktionsgesprächen.

Beschränkungen

Es gelten folgende Einschränkungen:

  • Die Sprachanpassung ist nicht für alle Sprachmodelle und Sprachkombinationen verfügbar. Informationen zur Modellanpassung finden Sie auf der Supportseite für die Sprache von Cloud Speech. für Ihre Kombination aus Sprachmodell und Sprache verfügbar.
  • Die manuelle Sprachanpassung wird derzeit nicht unterstützt benutzerdefinierte Klassen oder ABNF-Grammatik. Sie können die automatische Sprachanpassung aktivieren oder die Laufzeit verwenden Intent-Anfrage erkennen, um diese Anpassungsfunktionen zu verwenden.

  • Derselbe Wert für die Steigerung kann für verschiedene Sprachmodelle und Sprachen unterschiedliche Ergebnisse liefern. Seien Sie daher vorsichtig, wenn Sie ihn manuell für Kundenservicemitarbeiter konfigurieren, die mehrere Sprachen oder Sprachmodelle verwenden. Derzeit gilt die manuelle Sprachanpassung für alle Sprachen in einem Agenten. Daher sollten Sie für mehrsprachige Agents nur sprachunabhängige Formulierungen verwenden oder jede Sprache in einen separaten Agenten unterteilen. Da das Standardverhalten der Gewichtung (kein Boost oder Boost von 0 bereitgestellt) normalerweise eine angemessene Leistung für alle Sprachen und Modelle bietet, Sie müssen sprachspezifische Boost-Werte konfigurieren, es sei denn, die stärkere Gewichtung ist die für Ihren Anwendungsfall zur Erkennung erforderlich sind. Weitere Informationen zum Optimieren des Werts für die Verstärkung finden Sie in diesem Leitfaden zu Cloud Speech-to-Text.

  • Das Erkennen langer Zeichensequenzen ist schwierig. Die Anzahl der Zeichen, die in einer einzelnen Runde erfasst werden, stehen in direktem Zusammenhang die Qualität der Audioeingabe. Wenn Sie alle Richtlinien für reguläre Regexp-Entitäten befolgt und versucht haben, relevante Sprachklassen-Tokens in den Einstellungen für die manuelle Sprachanpassung zu verwenden, die gesamte Sequenz aber immer noch nicht in einer einzigen Antwort erfasst wird, können Sie einige weitere konversationsorientierte Alternativen in Betracht ziehen:
    • Wenn Sie die Sequenz anhand einer Datenbank validieren, sollten Sie Querverweise für andere erfasste Parameter wie Datumsangaben, Namen oder Telefonnummern erstellen, um unvollständige Übereinstimmungen zu ermöglichen. Fragen Sie einen Nutzer beispielsweise nicht nur nach seiner Bestellnummer, sondern auch nach seiner Telefonnummer. Wenn der Webhook nun die Datenbank nach dem Bestellstatus abfragt, kann er sich zuerst auf die Telefonnummer verlassen und dann die am besten übereinstimmende Bestellung für dieses Konto zurückgeben. Dies könnte dazu führen, dass Dialogflow „ABC“ falsch als „AVC“ erkennt, aber dennoch den korrekten Bestellstatus für den Nutzer zurückgibt.
    • Bei extra langen Sequenzen sollten Sie vielleicht einen Ablauf entwerfen, der Endnutzer dazu veranlasst, eine Pause zu machen, sodass der Bot die Eingabe bestätigen kann.