Einstellungen des Datenspeicher-Agents

Der folgende Datenspeicher-Agent Einstellungen verfügbar.

Fundierung

Für jede Antwort, die aus dem Inhalt Ihrer verbundenen Datenspeicher generiert wird, wird ein das Konfidenzniveau berechnet, das die Zuverlässigkeit angibt, in der Antwort durch Informationen in den Datenspeichern unterstützt wird. Zur Auswahl stehen das niedrigste zulässige Konfidenzniveau und der Agent gibt keine niedrigeren Antworten zurück als diesen Wert.

Sie können zwischen fünf Konfidenzniveaus wählen: sehr niedrig, niedrig, mittel, hoch und sehr hoch.

Sie können auch einen Filter für die Fundierung Heuristik anwenden. Wenn aktiviert, werden Antworten mit Inhalten, die aufgrund von KI-Halluzinationen wahrscheinlich ungenau sind, unterdrückt wird.

Datenspeicher-Prompt

Sie haben die Möglichkeit, zusätzliche Informationen zum Agent hinzuzufügen, die Qualität der aus Datenspeicherinhalten generierten Antworten zu verbessern und sie sich an Ihre Marke erinnern:

  • Agent-Name: Wie der Agent sich selbst nennen soll. Wenn Sie die Richtlinie nicht konfigurieren, wird der Standardwert KI-Assistent verwendet.
  • Agent Identity (Agent-Identität): die Rolle des Agents Wenn Sie die Richtlinie nicht konfigurieren, wird der Standardwert KI-Assistent verwendet.
  • Company name (Name des Unternehmens): Geben Sie hier den Namen Ihres Unternehmens an. Dies sollte bereits beim Erstellen des Agents festgelegt, kann aber bei Bedarf angepasst werden. Es wird empfohlen, dieses Feld korrekt festzulegen (und vor allem nicht, leer, die Qualität der generierten Antworten leidet.
  • Unternehmensbeschreibung: Eine kurze Beschreibung der Tätigkeit des Unternehmens oder Angebote.
  • Agent-Bereich: Gibt an, wo der Agent verwendet werden soll. Wenn Sie es lassen nicht festgelegt ist, wird der Standardwert auf der Unternehmenswebsite verwendet.

Sobald Sie diesen Abschnitt teilweise oder vollständig ausgefüllt haben, können Sie unter Ihr Prompt den kurzen Absatz, der aus diese Einstellungen ändern. Diese wird beim Generieren von Antworten verwendet.

Auswahl und Zusammenfassung des Datenspeichermodells

Wenn eine Nutzeranfrage verarbeitet wird, führt der Agent eine Suche in den Datenspeichern durch gute Quellen zu finden. Der Agent sendet dann die Nutzeranfrage und die gefundenen Quellen an das LLM, das eine Zusammenfassung durchführt.

Sie können auswählen, welches Modell für die Zusammenfassung verwendet werden soll, und optional Ihre eigenen Prompt.

Generatives Modell auswählen

Sie können das generative Modell auswählen, das von einem Datenspeicher-Agent für die Zusammenfassung der generativen Anfrage. In der folgenden Tabelle sind die verfügbaren Optionen:

Modell-ID Sprachunterstützung
Standard Diese Konfiguration wird derzeit empfohlen und kann sich im Laufe der Zeit ändern. Wenn Sie diese Option verwenden, kann sich das Verhalten des Agents ändern (wahrscheinlich Verbesserungen). Wenn Sie das Verhalten des Agents einheitlicher gestalten möchten, wählen Sie ein bestimmtes Modell aus.
(text-bison@002) Die Funktion ist in allen unterstützten Sprachen verfügbar.
gemini-1.0-pro-001 Die Funktion ist in allen unterstützten Sprachen verfügbar.
gemini-1.5-flash-001 (Vorschau) Die Funktion ist in allen unterstützten Sprachen verfügbar. Hinweis: Diese Konfiguration ist noch nicht stabil und kann sich im Laufe der Zeit ändern.

Prompt für die Zusammenfassung anpassen

Sie können einen eigenen Prompt für den LLM-Aufruf zur Zusammenfassung angeben. Der Prompt ist ein Textvorlage, die vordefinierte Platzhalter enthalten kann. Die Platzhalter werden werden zur Laufzeit durch die entsprechenden Werte ersetzt und der endgültige Text wird gesendet. mit dem LLM.

Die Platzhalter sind wie folgt:

  • $original-query: Der Abfragetext des Nutzers.
  • $rewritten-query: Dialogflow verwendet ein Rewriter-Modul zum Umschreiben. die ursprüngliche Nutzeranfrage in ein genaueres Format zu konvertieren.
  • $sources: Dialogflow verwendet Enterprise Search, um nach Quellen zu suchen basierend auf der Suchanfrage des Nutzers. Die gefundenen Quellen werden in einem bestimmten Format:

    [1] title of first source
    content of first source
    [2] title of second source
    content of second source
    
  • $end-user-metadata: Informationen zum Nutzer, der die Abfrage sendet, sind im folgenden Format gerendert:

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    
  • $conversation: Der Unterhaltungsverlauf wird wie folgt gerendert: Format:

    Human: user's first query
    AI: answer to user's first query
    Human: user's second query
    AI: answer to user's second query
    
  • ${conversation USER:"<user prefix>" AI:"<agent prefix>" TURNS:<turn count>}: Eine parametrisierte Version des Platzhalters $conversation. Ich kann das Endnutzerpräfix (USER), das Agent-Präfix (AI) und die Anzahl der einzubeziehenden vorherigen Runden (TURNS) Parameter für alle Platzhalter müssen Werte angegeben werden.

    Beispiel: ${conversation USER:"Human says:" AI:"Agent says:" TURNS:1}. Der Unterhaltungsverlauf wird so gerendert:

    Human says: user's first query
    Agent says: answer to user's first query
    

Mit einer benutzerdefinierten Aufforderung sollte das LLM angewiesen werden, „NOT_ENOUGH_INFORMATION“ zurückzugeben wann kann sie keine Antwort liefern. In diesem Fall ruft der Agent eine no-match fest.

Beispiel:

Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+   Answer the Human's query and make sure you mention all relevant details from
  the sources, using exactly the same words as the sources if possible.
+   The answer must be based only on the sources and not introduce any additional
  information.
+   All numbers, like price, date, time or phone numbers must appear exactly as
  they are in the sources.
+   Give as comprehensive answer as possible given the sources. Include all
  important details, and any caveats and conditions that apply.
+   The answer MUST be in English.
+   Don't try to make up an answer: If the answer cannot be found in the sources,
  you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.

Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.

Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?

Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.

Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION

Begin! Let's work this out step by step to be sure we have the right answer.

Sources:
$sources

$end-user-metadata
$conversation
Human: $original-query
AI:

Datenspeicher-Fallback

In diesem Bereich sind folgende Einstellungen verfügbar:

  • Fallback-Link: Der am besten geeignete Link wird angezeigt, wenn der Agent dies nicht kann. zu einer Antwort führen.
  • Generative AI aktivieren: Erlauben Sie dem Datenspeicher, Generative AI zu verwenden, wenn und Generieren von Ergebnissen.