Die folgenden Einstellungen für Kundenservicemitarbeiter verfügbar sind.
Fundierung
Für jede Antwort, die aus den Inhalten Ihrer verbundenen Datenspeicher generiert wird, wird ein Konfidenzgrad berechnet. Dieser gibt an, wie wahrscheinlich es ist, dass alle Informationen in der Antwort durch Informationen in den Datenspeichern unterstützt werden. Sie können das niedrigste zulässige Konfidenzniveau auswählen. Der Kundenservicemitarbeiter gibt dann keine Antworten zurück, die unter diesem Niveau liegen.
Sie können zwischen fünf Konfidenzniveaus wählen: sehr niedrig, niedrig, mittel, hoch und sehr hoch.
Sie können auch einen Filter für die Begründungstechnik anwenden. Wenn diese Option aktiviert ist, werden Antworten mit Inhalten, die aufgrund häufiger Halluzinationen wahrscheinlich ungenau sind, unterdrückt.
Aufforderung für Datenspeicher
Sie haben die Möglichkeit, zusätzliche Informationen zum Agent hinzuzufügen, die Qualität der aus Datenspeicherinhalten generierten Antworten zu verbessern und sie sich an Ihre Marke erinnern:
- Agent-Name: Wie der Agent sich selbst nennen soll. Wenn Sie die Richtlinie nicht konfigurieren, wird der Standardwert KI-Assistent verwendet.
- Agent Identity (Agent-Identität) – die Rolle des Agents Wenn Sie den Wert nicht festlegen, wird der Standardwert KI-Assistent verwendet.
- Company name (Name des Unternehmens): Geben Sie hier den Namen Ihres Unternehmens an. Dieser sollte bereits im Rahmen des Erstellungsvorgangs für den Kundenservicemitarbeiter festgelegt worden sein, kann aber bei Bedarf angepasst werden. Es wird empfohlen, dieses Feld korrekt festzulegen (und vor allem leer, die Qualität der generierten Antworten leidet.
- Unternehmensbeschreibung: Eine kurze Beschreibung der Tätigkeit des Unternehmens oder Angebote.
- Agent-Bereich: Gibt an, wo der Agent verwendet werden soll. Wenn Sie den Wert nicht festlegen, wird der Standardwert auf der Unternehmenswebsite verwendet.
Nachdem Sie diesen Abschnitt teilweise oder vollständig ausgefüllt haben, können Sie sich auf der rechten Seite unter Ihr Prompt den kurzen Absatz ansehen, der aus diesen Einstellungen abgeleitet wurde. Dieser Wert wird bei der Antwortgenerierung verwendet.
Auswahl und Zusammenfassung des Datenspeichermodells
Wenn eine Nutzeranfrage verarbeitet wird, durchsucht der Bot die Datenspeicher, um geeignete Quellen zu finden. Der Agent sendet dann die Nutzerabfrage und die gefundenen Quellen an das LLM, das eine Zusammenfassung erstellt.
Sie können auswählen, welches Modell für die Zusammenfassung verwendet werden soll, und optional Ihre eigenen Prompt.
Generatives Modell auswählen
Sie können das generative Modell auswählen, das von einem Datenspeicher-Agenten für die generative Anfrage zur Zusammenfassung verwendet wird. In der folgenden Tabelle sind die verfügbaren Optionen:
Modell-ID | Sprachunterstützung |
---|---|
Standard | Diese Konfiguration wird derzeit empfohlen und kann sich im Laufe der Zeit ändern. Wenn Sie diese Option verwenden, kann sich das Verhalten der Kundenservicemitarbeiter ändern (wahrscheinlich zu Verbesserungen führen). Wenn Sie ein einheitlicheres Verhalten der Kundenservicemitarbeiter wünschen, wählen Sie ein bestimmtes Modell aus. |
(text-bison@002) | Verfügbar in allen unterstützten Sprachen. |
gemini-1.0-pro-001 | Verfügbar in allen unterstützten Sprachen. |
gemini-1.5-flash-001 | Die Funktion ist in allen unterstützten Sprachen verfügbar. |
gemini-1.5-flash-002 | Die Funktion ist in allen unterstützten Sprachen verfügbar. |
Aufforderung zur Zusammenfassung anpassen
Sie können einen eigenen Prompt für den LLM-Aufruf zur Zusammenfassung angeben. Der Prompt ist ein Textvorlage, die vordefinierte Platzhalter enthalten kann. Die Platzhalter werden werden zur Laufzeit durch die entsprechenden Werte ersetzt und der endgültige Text wird gesendet. mit dem LLM.
Die Platzhalter sind:
$original-query
: Der Suchbegriff des Nutzers.$rewritten-query
: Dialogflow verwendet ein Rewrite-Modul, um die ursprüngliche Nutzerabfrage in ein genaueres Format umzuwandeln.$sources
: Dialogflow verwendet Enterprise Search, um nach Quellen zu suchen basierend auf der Suchanfrage des Nutzers. Die gefundenen Quellen werden in einem bestimmten Format:[1] title of first source content of first source [2] title of second source content of second source
$end-user-metadata
: Informationen zum Nutzer, der die Abfrage sendet, sind im folgenden Format gerendert:The following additional information is available about the human: { "key1": "value1", "key2": "value2", ... }
$conversation
: Der Unterhaltungsverlauf wird im folgenden Format gerendert:Human: user's first query AI: answer to user's first query Human: user's second query AI: answer to user's second query
${conversation USER:"<user prefix>" AI:"<agent prefix>" TURNS:<turn count>}
: Eine parametrisierte Version des Platzhalters$conversation
. Sie können das Präfix für den Endnutzer (USER
), das Präfix für den Kundenservicemitarbeiter (AI
) und die Anzahl der vorherigen Abbiegeverbote anpassen, die eingeschlossen werden sollen (TURNS
). Alle Platzhalterparameterwerte müssen angegeben werden.Beispiel:
${conversation USER:"Human says:" AI:"Agent says:" TURNS:1}
. Der Unterhaltungsverlauf wird so dargestellt:Human says: user's first query Agent says: answer to user's first query
Ein benutzerdefinierter Prompt sollte das LLM anweisen, „NOT_ENOUGH_INFORMATION“ zurückzugeben, wenn es keine Antwort geben kann. In diesem Fall ruft der Agent eine no-match fest.
Beispiel:
Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+ Answer the Human's query and make sure you mention all relevant details from
the sources, using exactly the same words as the sources if possible.
+ The answer must be based only on the sources and not introduce any additional
information.
+ All numbers, like price, date, time or phone numbers must appear exactly as
they are in the sources.
+ Give as comprehensive answer as possible given the sources. Include all
important details, and any caveats and conditions that apply.
+ The answer MUST be in English.
+ Don't try to make up an answer: If the answer cannot be found in the sources,
you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.
Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.
Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?
Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.
Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION
Begin! Let's work this out step by step to be sure we have the right answer.
Sources:
$sources
$end-user-metadata
$conversation
Human: $original-query
AI:
Datenspeicher-Fallback
In diesem Bereich sind folgende Einstellungen verfügbar:
- Fallback-Link: Der passende Link wird angezeigt, wenn der Kundenservicemitarbeiter keine Antwort geben kann.
- Generative AI aktivieren: Erlauben Sie dem Datenspeicher, Generative AI zu verwenden, wenn Generierung von Ergebnissen.