Configurações do agente de repositório de dados

As configurações do agente de repositório de dados a seguir estão disponíveis.

Embasamento

Para cada resposta gerada com base no conteúdo dos repositórios de dados conectados, é calculado um nível de confiança, que mede a confiança de que todas as informações na resposta são compatíveis com as informações nos repositórios de dados. Selecione o nível de confiança mais baixo permitido, e o agente não retornará respostas inferiores a esse nível.

Há cinco níveis de confiança para escolher: muito baixo, baixo, médio, alto e muito alto.

Também é possível aplicar um filtro de heurística de embasamento. Se ativada, as respostas com conteúdo que provavelmente é impreciso com base em alucinações comuns são suprimidas.

Comando do repositório de dados

Você tem a opção de adicionar mais informações sobre o agente para melhorar a qualidade das respostas geradas com base no conteúdo do repositório de dados e fazer com que elas se pareçam com sua marca:

  • Nome do agente: como o agente deve se chamar. Se você não definir isso, o valor padrão AI Assistant será usado.
  • Identidade do agente: o perfil do agente. Se você não definir isso, o valor padrão AI Assistant será usado.
  • Nome da empresa: defina como o nome da sua empresa. Isso já deveria ter sido definido como parte do fluxo de criação do agente, mas é ajustável conforme necessário. É recomendável definir esse campo corretamente e não deixá-lo vazio para que a qualidade das respostas geradas não seja prejudicada.
  • Descrição da empresa: uma breve descrição do que a empresa faz ou oferece.
  • Escopo do agente: onde o agente deve ser usado. Se ela não for definida, será usado o valor padrão no site da empresa.

Depois de preencher a seção total ou parcialmente, você pode inspecionar o parágrafo curto derivado dessas configurações no lado direito, em Seu comando. Isso é usado como parte da geração de respostas.

Seleção de modelo de repositório de dados e comando de resumo

Quando uma consulta do usuário é processada, o agente realiza uma pesquisa nos repositórios de dados para encontrar boas fontes. Em seguida, o agente envia a consulta do usuário e as fontes encontradas ao LLM, que realiza um resumo.

É possível selecionar qual modelo usar para o resumo e, opcionalmente, fornecer seu próprio comando.

Selecionar modelo generativo

É possível selecionar o modelo generativo usado por um agente de repositório de dados para a solicitação generativa de resumo. A tabela a seguir contém as opções disponíveis:

Identificador de modelo Suporte a idiomas
Padrão Essa é a configuração recomendada atualmente e está sujeita a alterações ao longo do tempo. Se você usar essa opção, poderá notar mudanças no comportamento do agente (prováveis melhorias). Para mais consistência no comportamento do agente, selecione um modelo específico.
text-bison@002 Disponível em todos os idiomas compatíveis.
gemini-1.0-pro-001 Disponível em todos os idiomas compatíveis.
gemini-1.5-flash-001 (visualização) Disponível em todos os idiomas compatíveis. Observação: essa configuração ainda não é estável e pode mudar com o tempo.

Personalizar o comando de resumo

É possível fornecer seu próprio comando para a chamada do LLM de resumo. O comando é um modelo de texto que pode conter marcadores de posição predefinidos. Os marcadores de posição serão substituídos pelos valores apropriados no momento da execução, e o texto final será enviado ao LLM.

Os marcadores de posição são os seguintes:

  • $original-query: o texto da consulta do usuário.
  • $rewritten-query: o Dialogflow usa um módulo de regravação para reescrever a consulta original do usuário em um formato mais preciso.
  • $sources: o Dialogflow usa o Enterprise Search para pesquisar origens com base na consulta do usuário. As fontes encontradas são renderizadas em um formato específico:

    [1] title of first source
    content of first source
    [2] title of second source
    content of second source
    
  • $end-user-metadata: as informações sobre o usuário que envia a consulta são renderizadas no seguinte formato:

    The following additional information is available about the human: {
      "key1": "value1",
      "key2": "value2",
      ...
    }
    
  • $conversation: o histórico de conversas é renderizado no seguinte formato:

    Human: user's first query
    AI: answer to user's first query
    Human: user's second query
    AI: answer to user's second query
    

Um comando personalizado instrui o LLM a retornar "NOT_ENOUGH_INFORMATION" quando não consegue fornecer uma resposta. Nesse caso, o agente invoca um evento sem correspondência.

Exemplo:

Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+ Answer the Human's query and make sure you mention all relevant details from
  the sources, using exactly the same words as the sources if possible.
+ The answer must be based only on the sources and not introduce any additional
  information.
+ All numbers, like price, date, time or phone numbers must appear exactly as
  they are in the sources.
+ Give as comprehensive answer as possible given the sources. Include all
  important details, and any caveats and conditions that apply.
+ The answer MUST be in English.
+ Don't try to make up an answer: If the answer cannot be found in the sources,
  you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.

Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.

Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?

Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.

Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION


Begin! Let's work this out step by step to be sure we have the right answer.

Sources:
$sources

$end-user-metadata
$conversation
Human: $original-query
AI:

Substituto do repositório de dados

Essa seção tem as seguintes configurações:

  • Link de fallback: mostre o link mais apropriado se o agente não produzir uma resposta.
  • Ativar IA generativa: permite que o repositório de dados use IA generativa ao gerar resultados.