Configurações do agente do repositório de dados

O seguinte configurações do agente estão disponíveis.

Embasamento

Para cada resposta gerada com base no conteúdo dos seus repositórios de dados conectados, um nível de confiança é calculado, o que mede a confiança de que todas as informações na resposta são compatíveis com as informações nos repositórios de dados. Você pode selecionar o nível de confiança mais baixo permitido, e o agente não vai retornar respostas abaixo disso.

Há cinco níveis de confiança para escolher: muito baixo, baixo, médio, alto e muito alto.

Também é possível aplicar um filtro de heurística de embasamento. Se ativada, as respostas com conteúdo provavelmente impreciso com base em alucinações comuns são suprimidas.

Comando do repositório de dados

Você tem a opção de adicionar mais informações sobre o agente que podem melhorar a qualidade das respostas geradas pelo conteúdo da loja de dados e fazer com que elas pareçam mais com sua marca:

  • Nome do agente: o nome que o agente vai usar. Se não for definida, será usado o valor padrão Assistente de IA.
  • Identidade do agente: o que será a persona do agente. Se você não definir esse valor, o valor padrão AI Assistant será usado.
  • Nome da empresa: defina o nome da sua empresa. Isso já deveria ter sido definido como parte do fluxo de criação do agente, mas ajustável conforme necessário. É recomendado definir esse campo corretamente (e não deixá-lo vazio), para que a qualidade das respostas geradas não seja afetada.
  • Descrição da empresa: uma breve descrição do que a empresa faz ou oferece.
  • Escopo do agente: onde o agente deve ser usado. Se você não definir o valor, o padrão no site da empresa será usado.

Depois de preencher essa seção parcialmente ou totalmente, você pode inspecionar no lado direito, em Sua solicitação, o parágrafo curto que foi derivado dessas configurações. Isso é usado como parte da geração de respostas.

Seleção de modelo de repositório de dados e comando de resumo

Quando uma consulta do usuário é processada, o agente realiza uma pesquisa nas lojas de dados para encontrar boas origens. Em seguida, o agente envia a consulta do usuário e as origens encontradas para o LLM, que realiza um resumo.

Você pode selecionar qual modelo usar para a síntese e, opcionalmente, fornecer seu próprio comando.

Selecionar modelo generativo

É possível selecionar o modelo generativo usado por um agente de repositório de dados para o solicitação generativa de resumo. A tabela a seguir contém as opções disponíveis:

Identificador de modelo Suporte a idiomas
Padrão Essa é a configuração recomendada atualmente e está sujeita a alterações ao longo do tempo. Se você usar essa opção, poderá notar mudanças no comportamento do agente (prováveis melhorias). Se você quiser mais consistência no comportamento do agente, selecione um modelo específico.
text-bison@002 Disponível em todos os idiomas compatíveis.
gemini-1.0-pro-001 Disponível em todos os idiomas compatíveis.
Gemini Flash Disponível em todos os idiomas com suporte.
gemini-1.5-flash-002 Disponível em todos os idiomas compatíveis.

Personalizar o comando de resumo

Você pode fornecer seu próprio comando para a chamada de LLM de resumo. O comando é um modelo de texto que pode conter marcadores de posição predefinidos. Os marcadores de posição serão substituídos pelos valores apropriados no momento da execução, e o texto final será enviado ao LLM.

Os marcadores de posição são os seguintes:

  • $original-query: o texto da consulta do usuário.
  • $rewritten-query: o Dialogflow usa um módulo de reescrita para reescrever a consulta original do usuário em um formato mais preciso.
  • $sources: o Dialogflow usa o Enterprise Search para pesquisar origens com base na consulta do usuário. As fontes encontradas são renderizadas em um formato específico:

    [1] title of first source
    content of first source
    [2] title of second source
    content of second source
    
  • $end-user-metadata: as informações sobre o usuário que envia a consulta são renderizado no seguinte formato:

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    
  • $conversation: o histórico de conversas é renderizado no seguinte formato:

    Human: user's first query
    AI: answer to user's first query
    Human: user's second query
    AI: answer to user's second query
    
  • ${conversation USER:"<user prefix>" AI:"<agent prefix>" TURNS:<turn count>}: uma versão parametrizada do marcador de posição $conversation. Você é possível personalizar o prefixo do usuário final (USER), o prefixo do agente (AI) e o número de curvas anteriores a incluir (TURNS). Todos os parâmetros de marcador devem ser especificados.

    Por exemplo, ${conversation USER:"Human says:" AI:"Agent says:" TURNS:1} O histórico de conversas é processado como:

    Human says: user's first query
    Agent says: answer to user's first query
    

Uma instrução personalizada precisa instruir o LLM a retornar "NOT_ENOUGH_INFORMATION" quando ele não puder fornecer uma resposta. Nesse caso, o agente vai invocar um evento de não correspondência.

Exemplo:

Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+   Answer the Human's query and make sure you mention all relevant details from
  the sources, using exactly the same words as the sources if possible.
+   The answer must be based only on the sources and not introduce any additional
  information.
+   All numbers, like price, date, time or phone numbers must appear exactly as
  they are in the sources.
+   Give as comprehensive answer as possible given the sources. Include all
  important details, and any caveats and conditions that apply.
+   The answer MUST be in English.
+   Don't try to make up an answer: If the answer cannot be found in the sources,
  you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.

Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.

Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?

Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.

Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION

Begin! Let's work this out step by step to be sure we have the right answer.

Sources:
$sources

$end-user-metadata
$conversation
Human: $original-query
AI:

Substituto do repositório de dados

Esta seção tem as seguintes configurações:

  • Link substituto: mostra o link mais apropriado se o agente não conseguir produza uma resposta.
  • Ativar a IA generativa: permita que o repositório de dados use a IA generativa ao gerar resultados.