Paramètres de l'agent de data store

L'agent de data store suivant paramètres sont disponibles.

Surface de référence

Pour chaque réponse générée à partir du contenu de vos data stores connectés, un le niveau de confiance est calculé, qui évalue le degré de confiance que toutes les informations dans la réponse est étayée par les informations contenues dans les data stores. Vous pouvez sélectionner le niveau de confiance le plus bas autorisé, et l'agent ne renverra pas de réponses inférieures que ce niveau.

Vous avez le choix entre cinq niveaux de confiance: très faible, faible, moyen, élevé et est très élevé.

Vous pouvez également appliquer un filtre heuristique d'ancrage. Si cette option est activée, les réponses incluant du contenu probablement inexact en raison d'hallucinations courantes supprimés.

Invite du data store

Vous avez la possibilité d'ajouter des informations supplémentaires sur l'agent améliorer la qualité des réponses générées à partir du contenu d'un data store à votre marque:

  • Nom de l'agent : nom que l'agent doit appeler lui-même. Si vous ne la configurez pas, la valeur par défaut Assistant IA sera utilisée.
  • Identité de l'agent : ce qu'est le persona de l'agent. Si vous ne la configurez pas, la valeur par défaut Assistant IA sera utilisée.
  • Nom de l'entreprise : indiquez le nom de votre entreprise. Cela aurait dû déjà a été défini lors du flux de création de l'agent, mais peut être ajusté si nécessaire. Il est recommandé de définir ce champ correctement (et surtout de ne pas le laisser vide), cela réduit la qualité des réponses générées.
  • Description de l'entreprise : brève description des activités de l'entreprise ou offres.
  • Champ d'application de l'agent : emplacement où l'agent doit être utilisé. Si vous le laissez n'est pas défini, la valeur par défaut sur le site Web de l'entreprise sera utilisée.

Une fois que vous avez rempli cette section (en partie ou en totalité), vous pouvez l'inspecter sur la à droite, sous Votre requête, le paragraphe court issu de ces paramètres. Cette information est utilisée pour générer des réponses.

Invite de sélection et de synthèse du modèle de data store

Lorsqu'une requête utilisateur est traitée, l'agent effectue une recherche dans les data stores pour trouver de bonnes sources. L'agent envoie ensuite la requête utilisateur et les sources trouvées à le LLM, qui effectue une synthèse.

Vous pouvez sélectionner le modèle à utiliser pour la synthèse et, si vous le souhaitez, fournir votre votre propre requête.

Sélectionner un modèle génératif

Vous pouvez sélectionner le modèle génératif utilisé par un agent de data store pour une requête générative de synthèse. Le tableau suivant contient les options:

Identifiant du modèle Langues acceptées
Par défaut Il s'agit de la configuration actuellement recommandée, qui est susceptible de changer au fil du temps. Si vous utilisez cette option, vous constaterez peut-être des changements dans le comportement de l'agent (probablement des améliorations). Si vous souhaitez plus de cohérence dans le comportement de l'agent, sélectionnez un modèle spécifique.
text-bison@002 Disponible dans toutes les langues acceptées.
gemini-1.0-pro-001 Disponible dans toutes les langues acceptées.
gemini-1.5-flash-001 (aperçu) Disponible dans toutes les langues acceptées. Remarque: Cette configuration n'est pas encore stable et peut changer au fil du temps.

Personnaliser l'invite de synthèse

Vous pouvez fournir votre propre requête pour l'appel LLM de synthèse. La requête est modèle de texte pouvant contenir des espaces réservés prédéfinis. Les espaces réservés seront remplacé par les valeurs appropriées lors de l'exécution, et le texte final sera envoyé au LLM.

Les espaces réservés sont les suivants:

  • $original-query: texte de la requête de l'utilisateur.
  • $rewritten-query: Dialogflow utilise un module de réécriture pour réécrire la requête d'origine de l'utilisateur dans un format plus précis.
  • $sources: Dialogflow utilise Enterprise Search pour rechercher des sources en fonction de la requête de l'utilisateur. Les sources trouvées sont affichées dans un format:

    [1] title of first source
    content of first source
    [2] title of second source
    content of second source
    
  • $end-user-metadata: les informations sur l'utilisateur qui envoie la requête sont au format suivant:

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    
  • $conversation : l'historique de la conversation est affiché comme suit : format:

    Human: user's first query
    AI: answer to user's first query
    Human: user's second query
    AI: answer to user's second query
    
  • ${conversation USER:"<user prefix>" AI:"<agent prefix>" TURNS:<turn count>}: version paramétrée de l'espace réservé $conversation. Toi pouvez personnaliser le préfixe de l'utilisateur final (USER), le préfixe de l'agent (AI) et le nombre de changements de direction précédents à inclure (TURNS). Tous les paramètres d'espace réservé doivent être spécifiées.

    Par exemple, ${conversation USER:"Human says:" AI:"Agent says:" TURNS:1}. L'historique de la conversation est affiché sous la forme suivante:

    Human says: user's first query
    Agent says: answer to user's first query
    

Une requête personnalisée doit indiquer au LLM de renvoyer "NOT_ENOUGH_INFORMATION". Quand elle ne peut pas fournir de réponse. Dans ce cas, l'agent appelle une requête no-match événement.

Exemple :

Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+   Answer the Human's query and make sure you mention all relevant details from
  the sources, using exactly the same words as the sources if possible.
+   The answer must be based only on the sources and not introduce any additional
  information.
+   All numbers, like price, date, time or phone numbers must appear exactly as
  they are in the sources.
+   Give as comprehensive answer as possible given the sources. Include all
  important details, and any caveats and conditions that apply.
+   The answer MUST be in English.
+   Don't try to make up an answer: If the answer cannot be found in the sources,
  you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.

Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.

Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?

Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.

Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION

Begin! Let's work this out step by step to be sure we have the right answer.

Sources:
$sources

$end-user-metadata
$conversation
Human: $original-query
AI:

Création de remplacement pour le data store

Cette section comporte les paramètres suivants:

  • Lien de remplacement: affiche le lien le plus approprié en cas d'échec de l'agent. une réponse.
  • Activer l'IA générative : autorisez le data store à utiliser l'IA générative lorsque : générer des résultats.