Erweiterte Spracheinstellungen

Dieser Leitfaden enthält zusätzliche erweiterte Einstellungen für Sprachfunktionen. Sie können diese erweiterten Einstellungen deaktivieren und aktivieren, indem Sie zu Agent-Einstellungen > Sprache und IVR > Speech-to-Text > Erweiterte Spracheinstellungen gehen.

Diese Einstellungen sind in den Agent-Einstellungen (gilt für den gesamten Agenten), in den Ablaufeinstellungen (gilt für den gesamten Ablauf und überschreibt die Agent-Einstellungen), in den Seiteneinstellungen (gilt für die Seite und überschreibt die Ablauf- und Agent-Einstellungen) und in den Fulfillment-Einstellungen (gilt für die Auftragsausführung und überschreibt die Seiten-, Ablauf- und Agent-Einstellungen) verfügbar. Je nach Relevanz der Einstellung für eine Ebene ist eine Teilmenge dieser Einstellungen auf jeder Ebene verfügbar. *Bevor Sie diese Einstellungen auf einer niedrigeren Ebene konfigurieren können, müssen Sie zuerst das Kästchen Erweiterte Spracheinstellungen aktivieren auf Agentebene aktivieren (Agenteinstellungen > Sprache und IVR > Speech-to-Text > Erweiterte Spracheinstellungen).*

Aktualisierte Einstellungen auf Agentebene werden nicht auf die Ablauf-, Seiten- und Ausführungsebene übertragen, wenn auf diesen niedrigeren Ebenen die Option Anpassen ausgewählt ist. Wenn die Option Anpassen mehrere Einstellungen umfasst und Sie nur einige davon aktualisieren möchten, müssen Sie möglicherweise auch andere Einstellungen aktualisieren, wenn sie mit den Einstellungen auf Kundenservicemitarbeiterebene übereinstimmen sollen.

Verfügbarkeit von Einstellungen nach Ebene

In der folgenden Tabelle sehen Sie, welche erweiterten Spracheinstellungen auf den einzelnen Ebenen verfügbar sind:

Name der Einstellung Agent Flow Seite Auftragsausführung
Modellauswahl (Speech-to-Text)
Ende der Sprachempfindlichkeit
Erweiterte Timeout-basierte Empfindlichkeit für das Ende der Sprache
Intelligente Endpunktermittlung aktivieren
Kein Sprachzeitlimit
Eingreifen
Abbruch der Wiedergabe einer teilweisen Antwort zulassen
Bucket für Audioexport
DTMF

Modellauswahl (Speech-to-Text)

Kann auf Agent-, Ablauf- und Seitenebene festgelegt werden.

Hiermit wird das Sprachmodell festgelegt, das für die Spracherkennung verwendet wird. Diese Einstellung ist sprachspezifisch. Sie können also für verschiedene Sprachen unterschiedliche Modelle auswählen. Sie können auch die Option Sprachmodell auf Anfrageebene überschreiben aktivieren. In diesem Fall wird das ausgewählte Modell verwendet, auch wenn in einem Laufzeit-API-Aufruf ein anderes Modell angegeben ist.

Informationen zu den Einschränkungen des Telefon-Gateways für Conversational Agents (Dialogflow CX) finden Sie unter Einschränkungen. Weitere Informationen finden Sie unter Sprachmodelle.

Ende der Sprachempfindlichkeit

Kann auf Agent-, Ablauf- und Seitenebene festgelegt werden.

Steuert die Empfindlichkeit zum Erkennen des Endes von Sprache in der Audioeingabe des Endnutzers. Der Wert reicht von 0 (niedrige Empfindlichkeit, weniger wahrscheinlich Endsprache) bis 100 (hohe Empfindlichkeit, eher zu Endsprache).

Erweiterte Timeout-basierte Empfindlichkeit für das Ende der Sprache

Kann auf Kundenservicemitarbeiterebene festgelegt und auf Fluss- und Seitenebene deaktiviert werden.

Wenn diese Einstellung aktiviert ist, wird der Wert für die Empfindlichkeit für das Ende der Spracheingabe als Maßstab verwendet, um eine relative Zeitüberschreitung für die Audioruhe festzulegen, um das Ende der Spracheingabe zu bestimmen. Wenn diese Einstellung deaktiviert ist (Standardeinstellung), wird der Wert der Einstellung Empfindlichkeit für das Ende der Spracheingabe verwendet, um das Ende der Spracheingabe durch das ML-Modell von Google Cloud Speech-to-Text zu bestimmen.

Die Einstellung Empfindlichkeit für das Ende der Spracherkennung unterstützt standardmäßig nur das phone_call-Sprachmodell für das en-US-Tag language. Mit der Einstellung Erweiterte Timeout-basierte Empfindlichkeit für das Ende der Spracherkennung aktivieren lässt sich die Empfindlichkeit für das Ende der Spracherkennung für alle von Dialogflow unterstützten Sprachen und Sprachmodelle konfigurieren.

Intelligente Endpunktermittlung aktivieren

Kann nur auf Kundenservicemitarbeiterebene festgelegt werden.

Wenn diese Einstellung aktiviert ist, analysieren Conversational Agents (Dialogflow CX) teilweise Nutzereingaben, um das Ende der Spracheingabe zu bestimmen. Wenn der Nutzer beispielsweise „Ich würde gerne“ sagt und eine Pause macht, warten Conversational Agents (Dialogflow CX) darauf, dass der Nutzer den Satz fortsetzt.

Dies ist besonders nützlich für die Erfassung numerischer Parameter, bei denen der Nutzer beispielsweise „1234“ sagen und eine Pause machen könnte, bevor er „5678“ sagt. Wenn Sie diese Einstellung für einen bestimmten Parameter anwenden möchten, müssen Sie im Formular des Parameters Smart Endpointing einrichten.

Diese Einstellung ist nur für das Sprach-Tag en-US verfügbar und standardmäßig deaktiviert.

Kein Sprachzeitlimit

Kann auf Agent-, Ablauf- und Seitenebene festgelegt werden.

Die Zeitdauer in Sekunden, für die Konversations-Agenten (Dialogflow CX) auf die Audioeingabe des Endnutzers warten. Der Standardwert ist 5 Sekunden und der Höchstwert 60 Sekunden. Für dieses Zeitlimit ruft Conversational Agents (Dialogflow CX) ein No-input-Ereignis auf.

Eingreifen

Kann auf Ebene des Kundenservicemitarbeiters, des Ablaufs und der Auftragsausführung festgelegt werden.

Wenn diese Option aktiviert ist, kann ein Endnutzer die Antwortantwort von Conversational Agents (Dialogflow CX) unterbrechen. Bei Unterbrechung sendet der Konversations-Agent (Dialogflow CX) keine Audiodaten mehr und verarbeitet die nächste Endnutzereingabe.

Wenn sich in der Nachrichtenwarteschlange mehrere Nachrichten befinden und eine Nachricht von einer Auftragsausführung in eine Warteschlange gestellt wurde, die einer Seite, einem Ablauf oder einem Kundenservicemitarbeiter zugeordnet ist, für den das Eingreifen aktiviert ist, wird für alle folgenden Nachrichten in der Warteschlange ebenfalls das Eingreifen aktiviert. In diesem Fall wird die Audiowiedergabe für alle Nachrichten in der Warteschlange beendet, bei denen das Eingreifen aktiviert ist.

Abbruch der Wiedergabe einer teilweisen Antwort zulassen

Kann nur auf Ebene der Auftragsausführung festgelegt werden.

Sie können diese Einstellung aktivieren, wenn das Kästchen Erweiterte Spracheinstellungen aktivieren in den Agent-Einstellungen > Sprache und IVR angeklickt ist und Teilantwort auf Auftragsausführungsebene aktiviert ist. Mit dieser Einstellung können Sie die Wiedergabe einer teilweisen Antwort abbrechen.

Wenn eine Nachricht in der Nachrichtenwarteschlange von einer Auftragsausführung erstellt wird, die eine Stornierung zulässt, wird die Wiedergabe der Nachricht abgebrochen, wenn der Warteschlange eine weitere Nachricht hinzugefügt wird. Das ist nützlich, wenn du mit einer ersten Nachricht die Wiedergabe starten möchtest, diese aber abgebrochen werden soll, wenn ein funktionierender Webhook vor Abschluss der Wiedergabe der ersten Nachricht eine weitere Nachricht generiert.

Bucket für Audioexport

Kann auf Agent- und Ablaufebene festgelegt werden.

Wenn angegeben, werden alle mit einer Anfrage verknüpften Audiodaten im Cloud Storage-Bucket gespeichert:

Audio gespeichert Anwendbare Anfragen
Audioeingabe von Endnutzern DetectIntent, StreamingDetectIntent, AnalyzeContent, StreamingAnalyzeContent
Für eine Antwort synthetisierte Sprachausgabe (Text-to-Speech, TTS) AnalyzeContent, StreamingAnalyzeContent

Weisen Sie den folgenden Dienstkonten in Ihrem Projekt die Rolle Storage-Objekt-Ersteller zu:

  • Dem Dienstkonto des Formats one-click@df-cx-ALPHANUMERIC_VALUE-ALPHANUMERIC_VALUE.iam.gserviceaccount.com, wenn Sie eine integrierte Partner-Telefonieintegration verwenden.

  • Dem Dienstkonto des Formats service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com, wenn Sie die Einbindung Dialogflow CX Phone Gateway verwenden. Wenn Sie dieses Dienstkonto in IAM suchen möchten, klicken Sie die Option Von Google bereitgestellte Rollenzuweisungen einschließen an.

DTMF

Weitere Informationen zu dieser Funktion finden Sie in der Dokumentation zu DTMF (Dual-Tone Multi-Frequency Signaling).