Für Kundenservicemitarbeiter gibt es viele Einstellungen, die sich auf das Verhalten auswirken. Die einzelnen Konsolen bieten unterschiedliche Einstellungen.
Einstellungen für den Agenten in der Dialogflow CX Console
So rufen Sie Agent-Einstellungen auf:
Console
- Öffnen Sie die Dialogflow CX Console.
- Wählen Sie Ihr Google Cloud-Projekt aus.
- Wählen Sie den Agent aus.
- Klicken Sie auf Agent-Einstellungen.
- Aktualisieren Sie die Einstellungen nach Bedarf.
- Klicken Sie auf Speichern.
API
Siehe die Methoden get
und patch/update
für den Typ Agent
.
Wählen Sie ein Protokoll und eine Version für die Agent-Referenz aus:
Protokoll | V3 | V3beta1 |
---|---|---|
REST | Kundenservicemitarbeiter-Ressource | Kundenservicemitarbeiter-Ressource |
RPC | Kundenservicemitarbeiter-Oberfläche | Kundenservicemitarbeiter-Oberfläche |
C++ | AgentsClient | Nicht verfügbar |
C# | AgentsClient | Nicht verfügbar |
Go | AgentsClient | Nicht verfügbar |
Java | AgentsClient | AgentsClient |
Node.js | AgentsClient | AgentsClient |
PHP | Nicht verfügbar | Nicht verfügbar |
Python | AgentsClient | AgentsClient |
Ruby | Nicht verfügbar | Nicht verfügbar |
In folgenden Unterabschnitten werden die verschiedenen Kategorien der Agent-Einstellungen beschrieben.
Allgemeine Einstellungen
Für Agents sind folgende allgemeine Einstellungen verfügbar:
-
Ein für Menschen lesbarer Name für Ihren Agent.
-
Die Standardzeitzone für den Agent.
-
Die von Ihrem Agent unterstützte Standardsprache. Nachdem ein Agent erstellt wurde, kann die Standardsprache nicht mehr geändert werden. Sie haben jedoch folgende Möglichkeiten:
- Exportieren Sie den Agenten im JSON-Format.
- Entpacken Sie die heruntergeladene Datei.
- Suchen Sie die Datei
agent.json
. - Aktualisieren Sie die Felder
defaultLanguageCode
undsupportedLanguageCodes
mit den gewünschten Werten. - Stellen Sie den Kundenservicemitarbeiter auf denselben oder einen anderen Kundenservicemitarbeiter aus Schritt 1 wieder her.
- Aktualisieren Sie nach Bedarf sprachspezifische Trainingsphrasen und Entitätswerte.
Kundenservicemitarbeiter sperren
Agent sperren
Gibt an, ob der Agent gesperrt ist. Ein gesperrter Agent kann nicht bearbeitet werden.
-
Cloud Logging aktivieren
Gibt an, ob Cloud Logging für den Agent aktiviert ist.
Interaktions-Logging aktivieren
Gibt an, ob Google Abfragen entfernen soll, um Qualitätsverbesserungen vorzunehmen.
Einwilligungsbasierte Entfernung von Endnutzereingaben aktivieren
Wenn diese Einstellung aktiviert ist, können Sie mit einem speziellen Sitzungsparameter steuern, ob Eingaben und Parameter von Endnutzern aus dem Unterhaltungsverlauf und Cloud Logging entfernt werden. Standardmäßig ist der Sitzungsparameter
true
. Wenn diese Einstellung deaktiviert ist, werden keine Daten entfernt.Die Nutzereinwilligung wird mit einem booleschen Sitzungsparameter erfasst:
$session.params.conversation-redaction
. Wenn diese Einstellung aktiviert ist und der Sitzungsparameter auffalse
gesetzt ist, erfolgt keine Entfernung. Andere Redigierungsstrategien gelten weiterhin. Wenn diese Einstellung aktiviert ist und der Sitzungsparameter auftrue
festgelegt ist, werden Daten entfernt.Ein Beispiel für die Einwilligungsanfrage könnte so aussehen: Sie fragen den Nutzer zuerst, ob er die Eingabe des Endnutzers beibehalten möchte, und ordnen die Antwort zwei Intents zu, einem „Ja-Intent“ und einem „Nein-Intent“. Legen Sie dann den Sitzungsparameter in den Parametervoreinstellungen der Route „yes intent“ in fulfillment auf
false
(keine Streichung) und in den Parametervoreinstellungen der Route „no intent“ auftrue
(Streichung erfolgt) fest.
-
BigQuery-Export aktivieren
Gibt an, ob der BigQuery-Export aktiviert ist.
BigQuery-Dataset
Der Name des BigQuery-Datasets.
BigQuery-Tabelle
Der Name der BigQuery-Tabelle.
-
Sie können Intent-Vorschläge aktivieren.
Benutzerdefinierte Nutzlastvorlage
In diesem Abschnitt können Sie Beschreibungen und Nutzlasten für benutzerdefinierte Nutzlastvorlagen erstellen.
ML-Einstellungen
Conversational Agents (Dialogflow CX) nutzen Algorithmen des maschinellen Lernens (ML), um Eingaben von Endnutzern zu verstehen, sie mit Intents abzugleichen und strukturierte Daten zu extrahieren. Conversational Agents (Dialogflow CX) lernt aus den von Ihnen bereitgestellten Trainingsformulierungen und aus den in Conversational Agents (Dialogflow CX) integrierten Sprachmodellen. Anhand dieser Daten wird ein Modell erstellt, um zu entscheiden, welcher Intent der Eingabe eines Endnutzers zugeordnet werden soll. Sie können für jeden Ablauf eines Agents eigene ML-Einstellungen nutzen. Das von Conversational Agents (Dialogflow CX) erstellte Modell ist für jeden Ablauf einmalig.
Die folgenden Agent-weiten ML-Einstellungen sind verfügbar:
ML zulassen, um die Rechtschreibung zu korrigieren
Wenn diese Option aktiviert ist und eine Nutzereingabe einen Rechtschreib- oder Grammatikfehler enthält, wird für den Intent-Abgleich die korrekte Rechtschreibung verwendet. Die Antwort für die Intent-Erkennung enthält die korrigierte Nutzereingabe. Beispiel: Gibt ein Endnutzer "Ich möchte einen Appfel" ein, so wird dies so verarbeitet, als ob er "Ich möchte einen Apfel" eingegeben hätte. Dies gilt auch für den Abgleich mit Systementitäten und benutzerdefinierten Entitäten.
Die Rechtschreibkorrektur ist auf Deutsch, Englisch, Französisch, Spanisch und Italienisch verfügbar. Sie ist in allen Regionen für Conversational Agents (Dialogflow CX) verfügbar.
Warnungen und Best Practices:
- Mit der Rechtschreibkorrektur können keine ASR-Fehler (Automated Speech Recognition, automatische Spracherkennung) korrigiert werden. Bei Verwendung von ASR-Eingaben sollte daher die Rechtschreibkorrektur deaktiviert sein.
- Eine korrigierte Eingabe kann mit dem falschen Intent übereinstimmen. Sie können dies beheben, indem Sie häufig nicht übereinstimmende Wortgruppen als Negativbeispiele hinzufügen.
- Durch die Rechtschreibkorrektur verlängert sich die Antwortzeit des Agents geringfügig.
- Wenn ein Agent mit domainspezifischem Jargon definiert wird, sind die Korrekturen möglicherweise unerwünscht.
Die folgenden ablaufspezifischen ML-Einstellungen sind verfügbar:
-
Dies kann einer der folgenden sein:
- Erweiterte NLU (Standardeinstellung): Erweiterte NLU-Technologie. Dieser NLU-Typ funktioniert besser als der Standardtyp, insbesondere bei großen Agents und Abläufen.
- Standard-NLU: Standard-NLU-Technologie. Erhält keine Qualitätsverbesserungen oder neuen Funktionen mehr.
-
Wenn diese Option aktiviert ist, wird der Ablauf bei jeder Aktualisierung über die Konsole trainiert. Bei großen Abläufen kann dies zur verzögerten Reaktion der Benutzeroberfläche der Konsole führen. Deshalb sollten Sie diese Einstellung deaktivieren und bei Bedarf für große Abläufe manuell trainieren.
-
Wenn Sie Falsch-Positiv-Ergebnisse herausfiltern und den Agent trotzdem mit einer vielfältigen natürlichen Sprache trainieren möchten, können Sie den Klassifizierungsschwellenwert für maschinelles Lernen einstellen. Mit dieser Einstellung legen Sie fest, welche Intent-Erkennungskonfidenz für eine Intent-Übereinstimmung mindestens erforderlich ist.
Wenn der Konfidenzwert für eine Intent-Übereinstimmung unter dem Schwellenwert liegt, wird ein No-Match-Ereignis ausgelöst.
Sie können für jeden Ablauf in jeder für den Bot aktivierten Sprache einen separaten Klassifizierungsgrenzwert festlegen. So können wir verschiedene Sprachen berücksichtigen, die bei unterschiedlichen Klassifizierungsschwellenwerten die beste Leistung erzielen. Weitere Informationen zum Erstellen eines mehrsprachigen Kundenservicemitarbeiters finden Sie in der Dokumentation zu mehrsprachigen Kundenservicemitarbeitern.
-
Gibt an, ob der Ablauf seit der letzten Aktualisierung der Ablaufdaten trainiert wurde.
-
Mit dieser Schaltfläche können Sie den Ablauf manuell trainieren.
Einstellungen für generative KI
Folgende Einstellungen für die generative KI sind verfügbar:
Allgemein
-
Liste der für generative KI verbotenen Begriffe. Wenn eine verbotene Wortgruppe im Prompt oder in der generierten Antwort erscheint, schlägt die Generierung fehl.
-
Konfigurieren Sie die Empfindlichkeitsstufen von Sicherheitsfiltern für verschiedene Kategorien der verantwortungsbewussten Anwendung von KI (Responsible AI, RAI). Die Inhalte werden anhand der folgenden vier Kategorien bewertet:
Kategorie Beschreibung Hassrede Negative oder schädliche Kommentare, die auf Identität und/oder geschützte Merkmale ausgerichtet sind Gefährliche Inhalte Fördert oder ermöglicht den Zugriff auf schädliche Waren, Dienste und Aktivitäten Sexuell explizite Inhalte Enthält Verweise auf sexuelle Handlungen oder andere vulgäre Inhalte Belästigung Böswillige, einschüchternde, mobbende oder missbräuchliche Kommentare, die auf andere Personen ausgerichtet sind Inhalte werden auf Basis der Wahrscheinlichkeit blockiert, dass sie schädlich sind. Sie können die Empfindlichkeit für jede Kategorie anpassen, indem Sie eine der Optionen Wenige blockieren, Einige blockieren und Meiste blockieren auswählen. Sie können auch Zugriff auf die eingeschränkte Option Keine blockieren erhalten, mit der RAI-Prüfungen für die Kategorie deaktiviert werden, nachdem Sie einen Antrag auf Risikobestätigung für Ihr Projekt eingereicht und eine Genehmigung erhalten haben.
Weitere Informationen finden Sie unter Sicherheitsattribute konfigurieren.
-
Sie können die Einstellung Sofortigen Sicherheitscheck aktivieren aktivieren, um sofortige Sicherheitschecks zu aktivieren. Wenn diese Option aktiviert ist, versucht der Agent, Prompt-Injection-Angriffe zu verhindern. Diese Angriffe können dazu verwendet werden, Teile des Prompts für den Kundenservicemitarbeiter zu enthüllen oder Antworten zu liefern, die der Kundenservicemitarbeiter nicht liefern soll. Dazu wird eine zusätzliche LLM-Aufforderung gesendet, die prüft, ob die Nutzerabfrage möglicherweise schädlich ist.
-
Generativer Agent
Auswahl des generativen Modells
Wählen Sie das Modell aus, das von generativen Funktionen verwendet wird. Weitere Informationen finden Sie unter Modellversionen.
Abgeschnittener Playbook-Kontext
Bei der Kürzung des Playbook-Kontexts werden einige vergangene Antworten aus dem Playbook-Prompt entfernt, damit die Prompt-Größe nicht mit jeder sequenziellen Antwort wächst, die vom Playbook verarbeitet wird. Mit dieser Funktion lässt sich das unerwünschte Wachstum der Prompt-Größe begrenzen.
Normalerweise wird jede nachfolgende Runde ohne Kürzung an den „Unterhaltungsverlauf“ des LLM-Prompts angehängt, unabhängig davon, ob sie für die aktuelle Runde relevant ist. Das kann dazu führen, dass der Prompt mit jeder Wendung größer wird. Je mehr des Prompts vom Konversationsverlauf belegt wird, desto weniger kann für wenige Beispiele verwendet werden. Diese werden dann möglicherweise entfernt. Möglicherweise wird dadurch auch das aktuelle Tokenlimit überschritten. Sie können die Tokengrößen erhöhen, um dies zu berücksichtigen. Beachten Sie jedoch, dass sich eine größere Promptgröße auch auf die LLM-Antwortlatenz auswirkt.
Mit der Kürzung des Playbook-Kontexts können Sie einen Prozentsatz des Tokenbudgets festlegen, der maximal für den Unterhaltungsverlauf reserviert werden soll. Die Gesprächsbeiträge werden in der Reihenfolge der letzten Beiträge gespeichert. Mit dieser Einstellung können Sie verhindern, dass Tokenlimits überschritten werden. Unabhängig von der ausgewählten Einstellung werden mindestens zwei Gesprächsbeiträge in der Reihenfolge der letzten Beiträge aufbewahrt.
Sie müssen zuerst ein Tokenlimit festlegen, bevor Sie diese Einstellung ändern können.
Wichtig:Wenn Sie den Kontext kürzen, gehen möglicherweise einige Parameter versehentlich verloren, wenn sie Teil der aussortierten Antworten sind. Prüfen Sie die Playbook-Interaktionen sorgfältig, nachdem Sie diese Option aktiviert haben.
Das Token-Eingabebudget wird auch für Folgendes verwendet:
- Systemanweisungen und Beispiele: Werden dem Prompt automatisch hinzugefügt. Dieses Verhalten kann nicht geändert werden.
- Playbook-Anleitungen und -Ziele: Alle von Ihnen verfassten Anleitungen und Ziele werden dem Prompt vollständig hinzugefügt.
- Few-Shot-Beispiele für Playbooks: Sie werden entweder in der Reihenfolge (standardmäßig) oder durch einen von Ihnen ausgewählten Algorithmus (z. B. die Sortierung nach der besten Übereinstimmung mit einem regulären Ausdruck) hinzugefügt. Beispiele werden nach Einschluss aller anderen Elemente so ausgewählt, dass sie in das Budget für Eingabetokens passen.
- Der Konversationsverlauf besteht aus Nutzer- und Kundenservicemitarbeiteräußerungen, Ablauf- und Playbook-Übergangskontext, Toolaufrufen und -ausgaben in derselben Sitzung aus allen vorherigen Gesprächsrunden, die vom aktuellen Playbook nacheinander verarbeitet werden.
Generativer Fallback
-
Weitere Informationen finden Sie unter Generativer Fallback: Eigenen Prompt definieren.
-
Datenspeicher
Weitere Informationen finden Sie unter Agent-Einstellungen für Datenspeicher.
Einstellungen für Sprache und IVR
Die folgenden Einstellungen für Sprache und IVR sind verfügbar:
-
-
Sie können die Sprache und die Stimme für die Sprachsynthese auswählen.
Sie können Benutzerdefinierte Stimme für Ihren Kundenservicemitarbeiter aktivieren, indem Sie die Option „Benutzerdefinierte Stimme“ aus dem Drop-down-Menü für die Sprachauswahl auswählen und den Namen der benutzerdefinierten Stimme in das entsprechende Feld eingeben. Der Name der benutzerdefinierten Stimme muss dem folgenden Muster entsprechen:
projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME
.- Wenn Sie ein Telefonie-Gateway verwenden, muss dem Dienstkonto Dialogflow-Dienst-Agent
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
in Ihrem Custom Voice-Projekt die Rolle „AutoML Predictor“ zugewiesen sein. - Achten Sie bei regulären API-Aufrufen darauf, dass dem Dienstkonto, mit dem Konversationsagenten (Dialogflow CX) aufgerufen werden, die Rolle „AutoML Predictor“ in Ihrem Custom Voice-Projekt zugewiesen ist.
- Wenn Sie ein Telefonie-Gateway verwenden, muss dem Dienstkonto Dialogflow-Dienst-Agent
-
-
Automatische Sprachanpassung aktivieren
Weitere Informationen finden sich unter Automatische Sprachanpassung.
Erweiterte Spracheinstellungen
Weitere Informationen zu erweiterten Sprachoptionen finden Sie im Leitfaden Erweiterte Spracheinstellungen.
DTMF
Weitere Informationen finden Sie unter DTMF für Telefonieintegrationen.
Multimodal
Weitere Informationen finden Sie unter Anrufassistent.
Freigabeeinstellungen
Weitere Informationen finden sich unter Zugriffssteuerung.
Spracheinstellungen
Fügen Sie Ihrem Agent zusätzliche Sprachunterstützung hinzu. Eine vollständige Liste der Sprachen finden Sie in der Sprachreferenz.
Automatische Spracherkennung
Wenn Sie die automatische Spracherkennung konfigurieren, erkennt Ihr Kundenservicemitarbeiter automatisch die Sprache des Endnutzers und wechselt zu dieser Sprache. Weitere Informationen finden Sie in der Dokumentation zur automatischen Spracherkennung.
Sicherheitseinstellungen
Weitere Informationen finden Sie unter Sicherheitseinstellungen.
Erweiterte Einstellungen
Derzeit ist die einzige erweiterte Einstellung für die Sentimentanalyse.
Einstellungen für die Agent Builder-Konsole
In diesem Abschnitt werden die Einstellungen beschrieben, die für Kundenservicemitarbeiter-Apps verfügbar sind.
Allgemein
Für Agenten-Apps sind folgende allgemeine Einstellungen verfügbar:
-
Ein für Menschen lesbarer Name für Ihre Kundenservicemitarbeiter-App.
-
Die Region der Agent-App.
-
Wenn diese Option aktiviert ist, sind Änderungen an der Kundenservicemitarbeiter-App nicht zulässig.
Logging
Für Kundenservice-Apps sind die folgenden Protokollierungseinstellungen verfügbar:
-
Wenn diese Option aktiviert ist, werden Logs an Cloud Logging gesendet.
Unterhaltungsverlauf aktivieren
Wenn diese Option aktiviert ist, ist der Unterhaltungsverlauf verfügbar. Gibt an, ob Google entfernte Abfragen von Endnutzern zur Qualitätsverbesserung erfassen und speichern soll. Diese Einstellung hat keinen Einfluss darauf, ob der Unterhaltungsverlauf zum Generieren von Antworten von Kundenservicemitarbeitern verwendet wird.
-
Wenn diese Option aktiviert ist, wird der Unterhaltungsverlauf nach BigQuery exportiert. Außerdem muss die Einstellung Unterhaltungsverlauf aktivieren aktiviert sein.
GenAI
Für Kundenservice-Apps sind die folgenden Einstellungen für die generative KI verfügbar:
Auswahl des generativen Modells
Wählen Sie das generative Modell aus, das Kundenservicemitarbeiter standardmäßig verwenden sollen.
-
Wählen Sie das Eingabetokenlimit für das generative Modell aus. Das ist die maximale Tokengröße für die an das Modell gesendeten Eingaben. Je nach Modell kann ein Token zwischen einem Zeichen und einem Wort liegen. Bei kleineren Tokenlimits ist die Latenz geringer, aber die Modelleingabegröße ist begrenzt. Bei größeren Tokenlimits ist die Latenz höher, die Modelleingabegröße kann aber größer sein.
-
Wählen Sie das Ausgabetokenlimit für das generative Modell aus. Das ist die maximale Tokengröße für die vom Modell empfangene Ausgabe. Je nach Modell kann ein Token zwischen einem Zeichen und einem Wort liegen. Bei kleineren Tokenlimits ist die Latenz geringer, aber die Größe der Modellausgabe ist begrenzt. Bei größeren Tokenlimits ist die Latenz höher, die Modellausgabe kann aber größer sein.
-
Mit der Temperatur für ein LLM können Sie steuern, wie kreativ die Antworten sind. Ein niedriger Wert führt zu vorhersehbareren Antworten. Ein hoher Wert führt zu kreativeren oder zufälligeren Antworten.
-
Liste der für generative KI verbotenen Begriffe. Wenn eine verbotene Wortgruppe in der Aufforderung oder in der generierten Antwort erscheint, gibt der Bot stattdessen eine Fallback-Antwort zurück.
-
Konfigurieren Sie die Empfindlichkeitsstufen von Sicherheitsfiltern für verschiedene Kategorien der verantwortungsbewussten Anwendung von KI (Responsible AI, RAI). Die Inhalte werden anhand der folgenden vier Kategorien bewertet:
Kategorie Beschreibung Hassrede Negative oder schädliche Kommentare, die auf Identität und/oder geschützte Merkmale ausgerichtet sind Gefährliche Inhalte Fördert oder ermöglicht den Zugriff auf schädliche Waren, Dienste und Aktivitäten Sexuell explizite Inhalte Enthält Verweise auf sexuelle Handlungen oder andere vulgäre Inhalte Belästigung Böswillige, einschüchternde, mobbende oder missbräuchliche Kommentare, die auf andere Personen ausgerichtet sind Inhalte werden auf Basis der Wahrscheinlichkeit blockiert, dass sie schädlich sind. Sie können die Einstellung für die Sensibilität anpassen, indem Sie für jede Kategorie eine der folgenden Optionen auswählen: Wenige blockieren (nur Fälle mit hoher Wahrscheinlichkeit schädlicher Inhalte blockieren), Einige blockieren (Fälle mit mittlerer und hoher Wahrscheinlichkeit) und Die meisten blockieren (niedrige, mittlere und hohe Wahrscheinlichkeit). Sie können auch Zugriff auf die eingeschränkte Option Keine blockieren erhalten, mit der RAI-Prüfungen für die Kategorie deaktiviert werden, nachdem Sie einen Antrag auf Risikobestätigung für Ihr Projekt eingereicht und eine Genehmigung erhalten haben.
Weitere Informationen finden Sie unter Sicherheitsattribute konfigurieren.
-
Sie können die Einstellung Sofortigen Sicherheitscheck aktivieren aktivieren, um sofortige Sicherheitschecks zu aktivieren. Wenn diese Option aktiviert ist, versucht der Agent, Prompt-Injection-Angriffe zu verhindern. Diese Angriffe können dazu verwendet werden, Teile des Prompts für den Kundenservicemitarbeiter zu enthüllen oder Antworten zu liefern, die der Kundenservicemitarbeiter nicht liefern soll. Dazu wird eine zusätzliche LLM-Aufforderung gesendet, die prüft, ob die Nutzerabfrage möglicherweise schädlich ist.
Git
Diese Einstellungen bieten eine Git-Integration. Folgen Sie der Anleitung, um die Integration zu konfigurieren.