Paramètres de l'agent de data store

Les éléments suivants : paramètres d'agent sont disponibles.

Surface de référence

Pour chaque réponse générée à partir du contenu de vos datastores connectés, un niveau de confiance est calculé, qui évalue la confiance que toutes les informations de la réponse sont étayées par les informations des datastores. Vous pouvez sélectionner le niveau de confiance le plus bas autorisé, et l'agent ne renverra pas de réponses à un niveau inférieur que ce niveau.

Vous avez le choix entre cinq niveaux de confiance : très faible, faible, moyen, élevé et très élevé.

Vous pouvez également appliquer un filtre d'heuristiques de mise à la terre. Si cette option est activée, les réponses dont le contenu est probablement inexact en raison d'hallucinations courantes supprimés.

Invite de data store

Vous avez la possibilité d'ajouter des informations supplémentaires sur l'agent améliorer la qualité des réponses générées à partir du contenu d'un data store à votre marque:

  • Nom de l'agent : nom que l'agent doit appeler lui-même. Si vous ne le définissez pas, la valeur par défaut Assistant AI est utilisée.
  • Identité de l'agent : ce qu'est le persona de l'agent. Si vous ne le définissez pas, la valeur par défaut Assistant AI est utilisée.
  • Nom de l'entreprise : définissez cette valeur sur le nom de votre entreprise. Cela aurait dû déjà a été défini lors du processus de création de l'agent, mais peut être ajusté si nécessaire. Nous vous recommandons de définir correctement ce champ (et surtout de ne pas le laisser vide), afin de ne pas nuire à la qualité des réponses générées.
  • Description de l'entreprise : brève description des activités de l'entreprise ou .
  • Champ d'application de l'agent : emplacement où l'agent doit être utilisé. Si vous ne le définissez pas, la valeur par défaut sur le site Web de l'entreprise est utilisée.

Une fois que vous avez rempli cette section (en partie ou en totalité), vous pouvez l'inspecter sur la à droite, sous Votre requête, le paragraphe court issu de ces paramètres. Il est utilisé dans le cadre de la génération de réponses.

Invite de sélection et de synthèse du modèle de data store

Lorsqu'une requête utilisateur est traitée, l'agent effectue une recherche dans les entrepôts de données pour trouver des sources appropriées. L'agent envoie ensuite la requête utilisateur et les sources trouvées à le LLM, qui effectue une synthèse.

Vous pouvez sélectionner le modèle à utiliser pour la synthèse et fournir éventuellement votre propre requête.

Sélectionner un modèle génératif

Vous pouvez sélectionner le modèle génératif utilisé par un agent de magasin de données pour la requête générative de résumé. Le tableau suivant contient les options:

Identifiant du modèle Langues acceptées
Par défaut Il s'agit de la configuration actuellement recommandée, qui est susceptible de changer au fil du temps. Si vous utilisez cette option, vous constaterez peut-être des changements dans le comportement des agents (améliorations probables). Si vous souhaitez que le comportement des agents soit plus cohérent, sélectionnez un modèle spécifique.
text-bison@002 Disponible dans toutes les langues acceptées.
gemini-1.0-pro-001 Disponible dans toutes les langues acceptées.
gemini-1.5-flash-001 Disponible dans toutes les langues acceptées.
gemini-1.5-flash-002 Disponible dans toutes les langues acceptées.

Personnaliser l'invite de résumé

Vous pouvez fournir votre propre requête pour l'appel LLM de synthèse. L'invite est un modèle de texte pouvant contenir des espaces réservés prédéfinis. Les espaces réservés seront remplacé par les valeurs appropriées lors de l'exécution, et le texte final sera envoyé au LLM.

Les espaces réservés sont les suivants :

  • $original-query: texte de la requête de l'utilisateur.
  • $rewritten-query: Dialogflow utilise un module de réécriture pour réécrire la requête d'origine de l'utilisateur dans un format plus précis.
  • $sources: Dialogflow utilise Enterprise Search pour rechercher des sources en fonction de la requête de l'utilisateur. Les sources trouvées sont affichées dans un format:

    [1] title of first source
    content of first source
    [2] title of second source
    content of second source
    
  • $end-user-metadata: les informations sur l'utilisateur qui envoie la requête sont au format suivant:

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    
  • $conversation : l'historique de la conversation est affiché comme suit : format:

    Human: user's first query
    AI: answer to user's first query
    Human: user's second query
    AI: answer to user's second query
    
  • ${conversation USER:"<user prefix>" AI:"<agent prefix>" TURNS:<turn count>} : version paramétrée de l'espace réservé $conversation. Vous pouvez personnaliser le préfixe de l'utilisateur final (USER), le préfixe de l'agent (AI) et le nombre de virages précédents à inclure (TURNS). Toutes les valeurs de paramètre d'espace réservé doivent être spécifiées.

    Par exemple, ${conversation USER:"Human says:" AI:"Agent says:" TURNS:1}. L'historique de la conversation est affiché sous la forme:

    Human says: user's first query
    Agent says: answer to user's first query
    

Une requête personnalisée doit indiquer au LLM de renvoyer "NOT_ENOUGH_INFORMATION". Quand elle ne peut pas fournir de réponse. Dans ce cas, l'agent appelle une requête no-match événement.

Exemple :

Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+   Answer the Human's query and make sure you mention all relevant details from
  the sources, using exactly the same words as the sources if possible.
+   The answer must be based only on the sources and not introduce any additional
  information.
+   All numbers, like price, date, time or phone numbers must appear exactly as
  they are in the sources.
+   Give as comprehensive answer as possible given the sources. Include all
  important details, and any caveats and conditions that apply.
+   The answer MUST be in English.
+   Don't try to make up an answer: If the answer cannot be found in the sources,
  you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.

Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.

Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?

Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.

Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION

Begin! Let's work this out step by step to be sure we have the right answer.

Sources:
$sources

$end-user-metadata
$conversation
Human: $original-query
AI:

Solution de remplacement du data store

Cette section comporte les paramètres suivants :

  • Lien de remplacement : affichez le lien le plus approprié si l'agent ne parvient pas à fournir de réponse.
  • Activer l'IA générative : permet au datastore d'utiliser l'IA générative lors de la génération de résultats.