Die folgenden Einstellungen für Kundenservicemitarbeiter sind verfügbar.
Fundierung
Für jede Antwort, die aus den Inhalten Ihrer verbundenen Datenspeicher generiert wird, wird ein Konfidenzgrad berechnet. Dieser gibt an, wie wahrscheinlich es ist, dass alle Informationen in der Antwort durch Informationen in den Datenspeichern unterstützt werden. Sie können das niedrigste zulässige Konfidenzniveau auswählen. Der Bot gibt dann keine Antworten zurück, die unter diesem Niveau liegen.
Es stehen fünf Konfidenzniveaus zur Auswahl: „Sehr niedrig“, „Niedrig“, „Mittel“, „Hoch“ und „Sehr hoch“.
Sie können auch einen Filter für die Begründungsmethode anwenden. Wenn diese Option aktiviert ist, werden Antworten mit Inhalten, die aufgrund häufiger Halluzinationen wahrscheinlich ungenau sind, unterdrückt.
Aufforderung für Datenspeicher
Sie haben die Möglichkeit, zusätzliche Informationen zum Kundenservicemitarbeiter hinzuzufügen, um die Qualität der Antworten zu verbessern, die aus Datenspeicherinhalten generiert werden, und sie markengerechter zu gestalten:
- Agent-Name: Wie soll sich der Agent nennen? Wenn Sie den Wert nicht festlegen, wird der Standardwert KI-Assistent verwendet.
- Identität des Kundenservicemitarbeiters: Die Persona des Kundenservicemitarbeiters. Wenn Sie den Wert nicht festlegen, wird der Standardwert KI-Assistent verwendet.
- Name des Unternehmens: Geben Sie den Namen Ihres Unternehmens ein. Dieser sollte bereits im Rahmen des Erstellungsvorgangs für den Kundenservicemitarbeiter festgelegt worden sein, kann aber bei Bedarf angepasst werden. Es wird empfohlen, dieses Feld korrekt festzulegen und es auf keinen Fall leer zu lassen, da sonst die Qualität der generierten Antworten beeinträchtigt wird.
- Unternehmensbeschreibung: Eine kurze Beschreibung der Tätigkeit oder Angebote des Unternehmens.
- Agent-Umfang: Gibt an, wo der Agent verwendet werden soll. Wenn Sie den Wert nicht festlegen, wird der Standardwert auf der Unternehmenswebsite verwendet.
Nachdem Sie diesen Abschnitt teilweise oder vollständig ausgefüllt haben, können Sie sich auf der rechten Seite unter Ihr Prompt den kurzen Absatz ansehen, der aus diesen Einstellungen abgeleitet wurde. Dieser Wert wird bei der Antwortgenerierung verwendet.
Aufforderung zur Auswahl des Datenspeichermodells und zur Zusammenfassung
Wenn eine Nutzeranfrage verarbeitet wird, durchsucht der Bot die Datenspeicher, um geeignete Quellen zu finden. Der Agent sendet dann die Nutzerabfrage und die gefundenen Quellen an das LLM, das eine Zusammenfassung erstellt.
Sie können auswählen, welches Modell für die Zusammenfassung verwendet werden soll, und optional einen eigenen Prompt angeben.
Generatives Modell auswählen
Sie können das generative Modell auswählen, das von einem Datenspeicher-Agenten für die generative Anfrage zur Zusammenfassung verwendet wird. In der folgenden Tabelle sind die verfügbaren Optionen aufgeführt:
Modellkennzeichnung | Sprachunterstützung |
---|---|
Standard | Dies ist die derzeit empfohlene Konfiguration. Sie kann sich im Laufe der Zeit ändern. Wenn Sie diese Option verwenden, kann sich das Verhalten der Kundenservicemitarbeiter ändern (wahrscheinlich zu Verbesserungen führen). Wenn Sie ein einheitlicheres Verhalten der Kundenservicemitarbeiter wünschen, wählen Sie ein bestimmtes Modell aus. |
gemini-1.0-pro-001 | Verfügbar in allen unterstützten Sprachen. |
gemini-1.5-flash-001 | Verfügbar in allen unterstützten Sprachen. |
gemini-1.5-flash-002 | Verfügbar in allen unterstützten Sprachen. |
Aufforderung zur Zusammenfassung anpassen
Sie können einen eigenen Prompt für den LLM-Aufruf zur Zusammenfassung angeben. Der Prompt ist eine Textvorlage, die vordefinierte Platzhalter enthalten kann. Die Platzhalter werden zur Laufzeit durch die entsprechenden Werte ersetzt und der endgültige Text wird an die LLM gesendet.
Die Platzhalter sind:
$original-query
: Der Suchbegriff des Nutzers.$rewritten-query
: Dialogflow verwendet ein Rewrite-Modul, um die ursprüngliche Nutzerabfrage in ein genaueres Format umzuwandeln.$sources
: Dialogflow verwendet die Enterprise Search, um anhand der Suchanfrage des Nutzers nach Quellen zu suchen. Die gefundenen Quellen werden in einem bestimmten Format gerendert:[1] title of first source content of first source [2] title of second source content of second source
$end-user-metadata
: Informationen zum Nutzer, der die Abfrage sendet, werden im folgenden Format dargestellt:The following additional information is available about the human: { "key1": "value1", "key2": "value2", ... }
$conversation
: Der Unterhaltungsverlauf wird im folgenden Format gerendert:Human: user's first query AI: answer to user's first query Human: user's second query AI: answer to user's second query
${conversation USER:"<user prefix>" AI:"<agent prefix>" TURNS:<turn count>}
: Eine parametrisierte Version des Platzhalters$conversation
. Sie können das Präfix für den Endnutzer (USER
), das Präfix für den Kundenservicemitarbeiter (AI
) und die Anzahl der vorherigen Abbiegeverbote anpassen, die eingeschlossen werden sollen (TURNS
). Alle Platzhalterparameterwerte müssen angegeben werden.Beispiel:
${conversation USER:"Human says:" AI:"Agent says:" TURNS:1}
. Der Unterhaltungsverlauf wird so dargestellt:Human says: user's first query Agent says: answer to user's first query
Ein benutzerdefinierter Prompt sollte das LLM anweisen, „NOT_ENOUGH_INFORMATION“ zurückzugeben, wenn es keine Antwort geben kann. In diesem Fall ruft der Agent ein Ereignis ohne Übereinstimmung auf.
Beispiel:
Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+ Answer the Human's query and make sure you mention all relevant details from
the sources, using exactly the same words as the sources if possible.
+ The answer must be based only on the sources and not introduce any additional
information.
+ All numbers, like price, date, time or phone numbers must appear exactly as
they are in the sources.
+ Give as comprehensive answer as possible given the sources. Include all
important details, and any caveats and conditions that apply.
+ The answer MUST be in English.
+ Don't try to make up an answer: If the answer cannot be found in the sources,
you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.
Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.
Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?
Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.
Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION
Begin! Let's work this out step by step to be sure we have the right answer.
Sources:
$sources
$end-user-metadata
$conversation
Human: $original-query
AI:
Datenspeicher-Fallback
Dieser Abschnitt enthält die folgenden Einstellungen:
- Fallback-Link: Der passende Link wird angezeigt, wenn der Kundenservicemitarbeiter keine Antwort geben kann.
- Generative KI aktivieren: Sie können festlegen, dass der Datenspeicher generative KI beim Generieren von Ergebnissen verwenden soll.