In diesem Leitfaden finden Sie zusätzliche, erweiterte Einstellungen für Sprachfunktionen. Sie können diese erweiterten Einstellungen deaktivieren und aktivieren, indem Sie zu Agent-Einstellungen > Sprache und IVR > Spracherkennung > Erweiterte Spracheinstellungen gehen.
Diese Einstellungen sind in den Agent-Einstellungen verfügbar (gilt für den gesamten Agent). Ablaufeinstellungen (gilt für gesamte Ablauf und überschreibt Agent-Einstellungen) Seiteneinstellungen (gilt für Seiten- und Ablauf- und Agent-Einstellungen überschreibt) und Einstellungen für die Auftragsausführung (gilt für die Auftragsausführung und überschreibt Seiten-, Ablauf- und Agent-Einstellungen). Eine Teilmenge sind auf jeder Ebene verfügbar, je nach Einstellung die für das Level relevant sind. *Bevor Sie diese Einstellungen auf einer niedrigeren Ebene konfigurieren können müssen Sie zuerst das Kästchen Erweiterte Spracheinstellungen aktivieren Agent-Ebene (Agent-Einstellungen > Sprache und IVR > Speech-to-Text > Erweiterte Sprache) Einstellungen)*.
Aktualisierte Einstellungen auf Agent-Ebene werden nicht für den Ablauf, die Seite und die Auftragsausführung übernommen Ebene, wenn die Option Anpassen auf diesen unteren Ebenen ausgewählt ist. Wenn der Parameter Die Option Anpassen umfasst mehrere Einstellungen, die Sie nur aktualisieren möchten. müssen Sie möglicherweise auch andere Einstellungen mit den Einstellungen auf Agent-Ebene identisch.
Verfügbarkeit von Einstellungen nach Ebene
In der folgenden Tabelle sehen Sie, welche erweiterten Spracheinstellungen unter für jedes Level:
Name der Einstellung | Agent | Ablauf | Seite | Auftragsausführung |
---|---|---|---|---|
Modellauswahl (Speech-to-Text) | ✔ | ✔ | ✔ | |
Empfindlichkeit für das Ende der Sprachausgabe | ✔ | ✔ | ✔ | |
Erweiterte, auf Timeout basierende Empfindlichkeit für die Ende der Sprachausgabe | ✔ | ✔ | ✔ | |
Intelligente Endpunktermittlung aktivieren | ✔ | |||
Kein Zeitlimit für Spracheingabe | ✔ | ✔ | ✔ | |
Einfahren | ✔ | ✔ | ||
Abbruch der Wiedergabe einer teilweisen Antwort zulassen | ✔ | |||
Bucket für Audioexport | ✔ | ✔ | ||
DTMF | ✔ | ✔ | ✔ |
Modellauswahl (Spracherkennung)
Kann auf Agent-, Ablauf- und Seitenebene festgelegt werden.
Legt das Sprachmodell fest, das für die Spracherkennung verwendet wird. Diese Einstellung ist sprachspezifisch. Sie können also für verschiedene Sprachen unterschiedliche Modelle auswählen. Sie können auch die Option Sprachmodell auf Anfrageebene überschreiben aktivieren. In diesem Fall wird das ausgewählte Modell verwendet, auch wenn in einem Laufzeit-API-Aufruf ein anderes Modell angegeben ist.
Informationen zum Telefon-Gateway für Conversational Agents (Dialogflow CX) finden Sie unter Einschränkungen. Weitere Informationen finden Sie unter Sprachmodelle.
Ende der Sprachempfindlichkeit
Kann auf Agent-, Ablauf- und Seitenebene festgelegt werden.
Steuert die Empfindlichkeit für die Erkennung des Endes einer Sprache in Endnutzeraudio Eingabe. Der Wert reicht von 0 (geringe Empfindlichkeit, Geringere Wahrscheinlichkeit, dass die Sprachausgabe beendet wird) bis 100 (hohe Empfindlichkeit; es ist wahrscheinlicher, dass die Sprachausgabe beendet wird).
Erweiterte Timeout-basierte Empfindlichkeit für das Ende der Sprache
Kann auf Agent-Ebene festgelegt und auf Ablauf- und Seitenebene deaktiviert werden.
Wenn diese Einstellung aktiviert ist, wird der Wert für die Empfindlichkeit für das Ende der Spracheingabe als Maßstab verwendet, um eine relative Zeitüberschreitung für die Audioruhe festzulegen, um das Ende der Spracheingabe zu bestimmen. Ist diese Einstellung deaktiviert (Standardeinstellung), Mit dem Wert für die Sprachempfindlichkeit wird das Ende Sprache des von Google Cloud Speech-to-Text bereitgestellten ML-Modells.
Während die Einstellung Empfindlichkeit für das Ende der Sprache nur phone_call
unterstützt,
Sprachmodell für die Sprache en-US
Aktivieren Sie die erweiterte zeitlimitbasierte Empfindlichkeit für das Ende der Sprachausgabe aktivieren.
können Sie die Empfindlichkeit für das Ende der Sprachausgabe für alle Sprachen und
von Dialogflow unterstützte Sprachmodelle.
Intelligente Endpunktermittlung aktivieren
Kann nur auf Kundenservicemitarbeiterebene festgelegt werden.
Wenn diese Einstellung aktiviert ist, analysieren Conversational Agents (Dialogflow CX) teilweise Nutzereingaben, um das Ende der Spracheingabe zu bestimmen. Wenn die nutzende Person beispielsweise „Ich möchte“ sagt: und pausiert, warten Conversational Agents (Dialogflow CX) darauf, dass der Nutzer den Satz fortsetzt.
Dies ist besonders nützlich für die Erfassung numerischer Parameter, bei denen der Nutzer könnte „1234“ sagen und halten Sie kurz inne, bevor Sie „5678“ sagen. Um diese Einstellung anzuwenden, Parameter verwenden möchten, müssen Sie Intelligente Endpunktverwaltung in in das Format des Parameters ein.
Diese Einstellung ist nur für das Sprach-Tag en-US
verfügbar und wird deaktiviert durch:
Standardeinstellung.
Kein Sprachzeitlimit
Kann auf Agent-, Ablauf- und Seitenebene festgelegt werden.
Die Zeitdauer in Sekunden, für die Konversations-Agenten (Dialogflow CX) auf die Audioeingabe des Endnutzers warten. Der Standardwert ist 5 Sekunden und der Höchstwert 60 Sekunden. Für dieses Zeitlimit ruft der Konversations-Bot (Dialogflow CX) ein Ereignis ohne Eingabe auf.
Eingreifen
Kann auf Ebene des Kundenservicemitarbeiters, des Ablaufs und der Auftragsausführung festgelegt werden.
Wenn diese Option aktiviert ist, kann ein Endnutzer die Audioantwort von Conversational Agents (Dialogflow CX) unterbrechen. Bei Unterbrechung sendet der Conversational Agent (Dialogflow CX) keine Audiodaten mehr und verarbeitet die nächste Endnutzereingabe.
Befinden sich mehrere Nachrichten in der Nachrichtenwarteschlange, und eine Nachricht wurde von einer Auftragsausführung in die Warteschlange gestellt, die mit einer Seite, einem Ablauf oder einem Agent verknüpft ist aktiviert ist, werden alle nachfolgenden Nachrichten in der Warteschlange ebenfalls aktiviert haben. In diesem Fall wird die Audiowiedergabe für alle Nachrichten in der Warteschlange beendet, bei denen das Eingreifen aktiviert ist.
Abbruch der Wiedergabe von Teilantworten zulassen
Kann nur auf Auftragsausführungsebene festgelegt werden.
Sie können diese Einstellung aktivieren, wenn das Kästchen Erweiterte Spracheinstellungen aktivieren haben unter Agent-Einstellungen > Sprache und IVR und Teilantwort auf der Ebene der Auftragsausführung aktiviert wird. Mit dieser Einstellung können Sie die Wiedergabe einer teilweisen Antwort abbrechen.
Wenn eine Nachricht in der Nachrichtenwarteschlange durch eine Auftragsausführung erstellt wird, die einen Abbruch ermöglicht, wird die Wiedergabe der Nachricht wird abgebrochen, wenn eine weitere Nachricht zur Warteschlange hinzugefügt wird. Das ist nützlich, wenn du mit einer ersten Nachricht die Wiedergabe starten möchtest, diese aber abgebrochen werden soll, wenn ein funktionierender Webhook vor Abschluss der Wiedergabe der ersten Nachricht eine weitere Nachricht generiert.
Bucket für Audioexport
Kann auf Agent- und Ablaufebene festgelegt werden.
Wenn angegeben, werden alle mit einer Anfrage verknüpften Audiodaten im Cloud Storage-Bucket gespeichert:
Audio gespeichert | Relevante Anfragen |
---|---|
Audioeingabe von Endnutzern | DetectIntent, StreamingDetectIntent, AnalyzeContent, StreamingAnalyzeContent |
Für eine Antwort synthetisierte Text-to-Speech-Audiodatei (TTS) | AnalyzerContent, Streaming AnalyzerContent |
Weisen Sie den folgenden Dienstkonten in Ihrem Projekt die Rolle Storage Object Creator zu:
Dem Dienstkonto des Formats
one-click@df-cx-ALPHANUMERIC_VALUE-ALPHANUMERIC_VALUE.iam.gserviceaccount.com
, wenn Sie eine integrierte Partner-Telefonieintegration verwenden.Dem Dienstkonto des Formats
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
, wenn Sie die Einbindung Dialogflow CX Phone Gateway verwenden. Wenn Sie dieses Dienstkonto in IAM suchen möchten, klicken Sie die Option Von Google bereitgestellte Rollenzuweisungen einschließen an.
DTMF
Weitere Informationen zu dieser Funktion finden Sie in der Dokumentation zu DTMF (Dual-Tone Multi-Frequency Signaling).