Diese Seite wurde von der Cloud Translation API übersetzt.
Switch to English

Automatische Sprachanpassung

Das Feature zur automatischen Sprachanpassung verbessert die Genauigkeit der Spracherkennung Ihres Agents, indem automatisch der Unterhaltungsstatus verwendet wird, um relevante Entitäten und Trainingsformulierungen als Sprachkontexthinweise für alle Anfragen zur Intent-Erkennung zu übergeben. Dieses Feature ist standardmäßig deaktiviert.

Automatische Sprachanpassung aktivieren oder deaktivieren

So aktivieren oder deaktivieren Sie die automatische Sprachanpassung:

Console

  1. Öffnen Sie die Dialogflow CX Console.
  2. Wählen Sie Ihr GCP-Projekt aus.
  3. Wählen Sie den Agent aus.
  4. Klicken Sie auf Agent-Einstellungen.
  5. Klicken Sie auf den Tab Speech and IVR.
  6. Schalten Sie Sprachanpassung aktivieren ein oder aus.
  7. Klicken Sie auf Speichern.

API

Siehe die Methoden get und patch/update für den Typ Agent.

Wählen Sie ein Protokoll und eine Version für die Agent-Referenz aus:

Protokoll V3 V3beta1
REST Agent-Ressource Agent-Ressource
RPC Agent-Oberfläche Agent-Oberfläche
C# Nicht verfügbar Nicht verfügbar
Go Nicht verfügbar Nicht verfügbar
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP Nicht verfügbar Nicht verfügbar
Python AgentsClient AgentsClient
Ruby Nicht verfügbar Nicht verfügbar

Beispiele für Verbesserungen der Spracherkennung

Wenn die automatische Sprachanpassung aktiviert ist, können Sie den Agent so erstellen, dass die dadurch entstehenden Vorteile genutzt werden können. In den folgenden Abschnitten wird erläutert, wie die Spracherkennung durch bestimmte Änderungen an den Trainingsformulierungen Ihres Agents und Entitäten verbessert werden kann.

Trainingsformulierungen

  • Wenn Sie Trainingsformulierungen mit einer Formulierung wie „stuffy nose“ definieren, wird eine ähnlich klingende Nutzeräußerung zuverlässig als „stuffy nose“ und nicht als „stuff he knows“ erkannt.
  • Wenn Sie einen erforderlichen Parameter haben, der Dialogflow gezwungen, Eingabeaufforderungen für das Formular auszuführen, wird die automatische Sprachanpassung eine starke Verzerrung der Entität dar, die ausgefüllt werden soll.

In allen Fällen berücksichtigt die automatische Sprachanpassung lediglich die Spracherkennung, ohne sie zu beschränken. Beispiel: Auch wenn Dialogflow einen Nutzer zur Eingabe eines erforderlichen Parameters auffordert, können Nutzer weiterhin andere Intents auslösen, z. B. einen Intent der obersten Ebene „Mit Mitarbeiter sprechen“.

Systementitäten

Wenn Sie eine Trainingsformulierung definieren, in der die Systementität @sys.number verwendet wird, und der Endnutzer die Antwort "Ich möchte zwei" sehen möchte, kann dies auch als "to", "too", "2" erkannt werden. oder "two".

Wenn die automatische Sprachanpassung aktiviert ist, verwendet Dialogflow bei der Spracherkennung die Entität @sys.number als Hinweis. Der Parameter wird mit größerer Wahrscheinlichkeit als „2“ extrahiert.

Benutzerdefinierte Entitäten

  • Wenn Sie Entitäten für Produkt- oder Dienstleistungsnamen, die von Ihrem Unternehmen angeboten werden, definieren und der Endnutzer diese Begriffe in einer Äußerung erwähnt, werden sie eher erkannt. Die Trainingsformulierung „I love Dialogflow“, wobei „Dialogflow“ als @product-Entität annotiert ist, gibt der automatischen Sprachanpassung vor, sich an „I love Dialogflow“, „I love Cloud Speech“ und anderen Einträgen in der @product-Entität zu orientieren.

  • Es ist besonders wichtig, dass Sie präzise Entitätssynonyme definieren, wenn Sie Dialogflow zur Spracherkennung verwenden. Angenommen, Sie haben zwei @product-Entitätseinträge, „Dialogflow“ und „Dataflow“. Ihre Synonyme für „Dialogflow“ sind beispielsweise „Dialogflow“, „dialogue flow“, „dialogue builder“, „Speaktoit“, „speak to it“, „API.ai“, „API dot AI“. Diese Synonyme sind gut, da sie die gängigsten Varianten abdecken. Sie müssen „the dialogue flow builder“ nicht hinzufügen, da dies von „dialogue flow“ bereits abgedeckt ist.

  • Nutzeräußerungen mit aufeinanderfolgenden, aber separaten Zahlenentitäten können mehrdeutig sein. Beispiel: „I want two sixteen packs“ könnten 2 Pakete mit 16 Sets oder 216 Mengen bedeuten. Durch die Sprachanpassung lassen sich solche Fälle eindeutig unterscheiden, wenn Sie Entitäten mit buchstabierten Werten einrichten:
    • Definieren Sie eine quantity-Entität mit folgenden Einträgen:
      zero
      one
      ...
      twenty
    • Definieren Sie eine product- oder size- Entität mit folgenden Einträgen:
      sixteen pack
      two ounce
      ...
      five liter
    • In der Sprachanpassung werden nur Entitätssynonyme verwendet. Sie können also eine Entität mit dem Referenzwert 1 und dem einzelnen Synonym one definieren, um die Auftragsausführungslogik zu vereinfachen.

RegExp-Entitäten

RegExp-Entitäten können die automatische Sprachanpassung für alphanumerische und Ziffernsequenzen wie "ABC123" oder "12345" auslösen, wenn sie ordnungsgemäß konfiguriert sind. Jeder reguläre Ausdruck lässt sich zum Extrahieren von Entitäten in der NLP verwenden, aber nur bestimmte Ausdrücke geben der automatischen Sprachanpassung vor, vorwiegend buchstabierte alphanumerische oder Ziffernsequenzen zu berücksichtigen.

Wenn Sie diese Sequenzen über Sprache erkennen möchten, müssen Sie alle der folgenden Anforderungen erfüllen:

  1. Mindestens eine Ihrer Einträge für reguläre Ausdrücke folgt allen folgenden Regeln:

    • Kann Zeichensätze [] verwenden
    • Darf Wiederholungsquantifizierer wie *, ?, + oder {3,5} verwenden
    • Enthält keine Leerzeichen oder \s, wobei \s* und \s? zulässig sind
    • Enthält keine Erfassungsgruppen ()
    • Enthält keine Sonderzeichen oder Satzzeichen wie ` ~ ! @ # $ % ^ & * ( ) - _ = + , . < > / ? ; ' : " [ ] { } \ |
  2. Markieren Sie in Ihrem Intent die RegExp-Entität als erforderlichen Parameter, damit er während der Slot-Füllung erfasst werden kann. Dadurch kann die automatische Sprachanpassung stark auf die Sequenzerkennung ausgerichtet werden, anstatt zu versuchen, einen Intent und eine Sequenz gleichzeitig zu erkennen. Andernfalls könnte „Wo ist mein Paket für ABC123“ als „Wo ist mein Paket 4ABC123“ falsch erkannt werden.

Beispielsweise löst eine RegExp-Entität mit einem einzelnen Eintrag ([a-zA-Z0-9]\s?){5,9} nicht die Erkennung von Sprachsequenzen aus, da sie eine Erfassungsgruppe enthält. Fügen Sie einfach einen weiteren Eintrag für [a-zA-Z0-9]{5,9} hinzu, um das Problem zu beheben. Ab jetzt können Sie sich von der Sequenzerkennung erkennen lassen, wenn Sie die Übersetzung für das Wort "ABC123" verwenden. Die NLP passt aber weiterhin zu Eingaben wie "ABC 123". der ursprünglichen Regel, die Leerzeichen zulässt.

Die folgenden Beispiele für reguläre Ausdrücke passen sich für alphanumerische Sequenzen an:

^[A-Za-z0-9]{1,10}$
WAC\d+
215[2-8]{3}[A-Z]+
[a-zA-Z]\s?[a-zA-Z]\s?[0-9]\s?[0-9]\s?[0-9]\s?[a-zA-Z]\s?[a-zA-Z]

Die folgenden Beispiele für reguläre Ausdrücke passen sich für Ziffernsequenzen an:

\d{2,8}
^[0-9]+$
2[0-9]{7}
[2-9]\d{2}[0-8]{3}\d{4}

Verwenden Sie außerdem @sys.number-sequence, um eine beliebige Ziffernfolge zu akzeptieren, und @sys.phone-number für die Erkennung einer lokalisierten Telefonnummer. Systementitäten und benutzerdefinierte Regex-Entitäten funktionieren gut mit der automatischen Sprachanpassung, auch wenn dies nicht die erforderlichen Eingabeformulare erfordert.

Beschränkungen

Es gelten folgende Einschränkungen:

  1. Die Erkennung langer Charaktersequenzen ist schwierig. Bei Telefonkanälen mit 8kHz-Audio werden beispielsweise Sequenzen mit mehr als 16 Ziffern oder 10 alphanumerischen Zeichen möglicherweise nicht erkannt. Sehen Sie sich weitere alternative Alternativen an. Hier einige Beispiele:

    • Wenn Sie die Sequenz anhand einer Datenbank validieren, sollten Sie Querverweise für andere erfasste Parameter wie Datumsangaben, Namen oder Telefonnummern erstellen, um unvollständige Übereinstimmungen zu ermöglichen. Fragen Sie einen Nutzer beispielsweise nicht nur nach seiner Bestellnummer, sondern auch nach seiner Telefonnummer. Wenn der Webhook nun die Datenbank nach dem Bestellstatus abfragt, kann er sich zuerst auf die Telefonnummer verlassen und dann die am besten übereinstimmende Bestellung für dieses Konto zurückgeben. Dies könnte dazu führen, dass Dialogflow „ABC“ falsch als „AVC“ erkennt, aber dennoch den korrekten Bestellstatus für den Nutzer zurückgibt.
    • Erwägen Sie bei längeren längeren Sequenzen einen Ablauf, der Endnutzer dazu anregt, eine Pause zu machen, damit der Bot dies bestätigen kann.
  2. Die integrierte Unterstützung einer automatischen Sprachanpassung für System- und RegExp-Entitäten variiert je nach Sprache. Unter Sprachklassen-Tokens finden Sie die unterstützten Sprachen $OOV_CLASS_ALPHANUMERIC_SEQUENCE und $OOV_CLASS_DIGIT_SEQUENCE. Ist Ihre Sprache nicht aufgeführt, können Sie diese Einschränkung umgehen. Wenn Sie beispielsweise möchten, dass eine Mitarbeiter-ID, bei der auf drei Buchstaben drei Ziffern folgen, richtig erkannt wird, können Sie den Agent mit den folgenden Entitäten und Parametern erstellen:

    • Definieren Sie eine digit-Entität, die (mit Synonymen) 10 Entitätseinträge enthält:
      0, 0
      1, 1
      ...
      9, 9
    • Definieren Sie eine letter-Entität, die (mit Synonymen) 26 Entitätseinträge enthält:
      A, A
      B, B
      ...
      Z, Z
    • Definieren Sie eine employee-id-Entität, die einen einzigen Entitätseintrag (ohne Synonyme) enthält:
      @letter @letter @letter @digit @digit @digit
    • Verwenden Sie @employee-id als Parameter in einer Trainingsformulierung.
    .