As configurações do agente de repositório de dados a seguir estão disponíveis.
Embasamento
Para cada resposta gerada com base no conteúdo dos repositórios de dados conectados, é calculado um nível de confiança, que mede a confiança de que todas as informações na resposta são compatíveis com as informações nos repositórios de dados. Selecione o nível de confiança mais baixo permitido, e o agente não retornará respostas inferiores a esse nível.
Há cinco níveis de confiança para escolher: muito baixo, baixo, médio, alto e muito alto.
Também é possível aplicar um filtro de heurística de embasamento. Se ativada, as respostas com conteúdo que provavelmente é impreciso com base em alucinações comuns são suprimidas.
Comando do repositório de dados
Você tem a opção de adicionar mais informações sobre o agente para melhorar a qualidade das respostas geradas com base no conteúdo do repositório de dados e fazer com que elas se pareçam com sua marca:
- Nome do agente: como o agente deve se chamar. Se você não definir isso, o valor padrão AI Assistant será usado.
- Identidade do agente: o perfil do agente. Se você não definir isso, o valor padrão AI Assistant será usado.
- Nome da empresa: defina como o nome da sua empresa. Isso já deveria ter sido definido como parte do fluxo de criação do agente, mas é ajustável conforme necessário. É recomendável definir esse campo corretamente e não deixá-lo vazio para que a qualidade das respostas geradas não seja prejudicada.
- Descrição da empresa: uma breve descrição do que a empresa faz ou oferece.
- Escopo do agente: onde o agente deve ser usado. Se ela não for definida, será usado o valor padrão no site da empresa.
Depois de preencher a seção total ou parcialmente, você pode inspecionar o parágrafo curto derivado dessas configurações no lado direito, em Seu comando. Isso é usado como parte da geração de respostas.
Seleção de modelo de repositório de dados e comando de resumo
Quando uma consulta do usuário é processada, o agente realiza uma pesquisa nos repositórios de dados para encontrar boas fontes. Em seguida, o agente envia a consulta do usuário e as fontes encontradas ao LLM, que realiza um resumo.
É possível selecionar qual modelo usar para o resumo e, opcionalmente, fornecer seu próprio comando.
Selecionar modelo generativo
É possível selecionar o modelo generativo usado por um agente de repositório de dados para a solicitação generativa de resumo. A tabela a seguir contém as opções disponíveis:
Identificador de modelo | Suporte a idiomas |
---|---|
Padrão | Essa é a configuração recomendada atualmente e está sujeita a alterações ao longo do tempo. Se você usar essa opção, poderá notar mudanças no comportamento do agente (prováveis melhorias). Para mais consistência no comportamento do agente, selecione um modelo específico. |
text-bison@002 | Disponível em todos os idiomas compatíveis. |
gemini-1.0-pro-001 | Disponível em todos os idiomas compatíveis. |
gemini-1.5-flash-001 (visualização) | Disponível em todos os idiomas compatíveis. Observação: essa configuração ainda não é estável e pode mudar com o tempo. |
Personalizar o comando de resumo
É possível fornecer seu próprio comando para a chamada do LLM de resumo. O comando é um modelo de texto que pode conter marcadores de posição predefinidos. Os marcadores de posição serão substituídos pelos valores apropriados no momento da execução, e o texto final será enviado ao LLM.
Os marcadores de posição são os seguintes:
$original-query
: o texto da consulta do usuário.$rewritten-query
: o Dialogflow usa um módulo de regravação para reescrever a consulta original do usuário em um formato mais preciso.$sources
: o Dialogflow usa o Enterprise Search para pesquisar origens com base na consulta do usuário. As fontes encontradas são renderizadas em um formato específico:[1] title of first source content of first source [2] title of second source content of second source
$end-user-metadata
: as informações sobre o usuário que envia a consulta são renderizadas no seguinte formato:The following additional information is available about the human: { "key1": "value1", "key2": "value2", ... }
$conversation
: o histórico de conversas é renderizado no seguinte formato:Human: user's first query AI: answer to user's first query Human: user's second query AI: answer to user's second query
Um comando personalizado instrui o LLM a retornar "NOT_ENOUGH_INFORMATION" quando não consegue fornecer uma resposta. Nesse caso, o agente invoca um evento sem correspondência.
Exemplo:
Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+ Answer the Human's query and make sure you mention all relevant details from
the sources, using exactly the same words as the sources if possible.
+ The answer must be based only on the sources and not introduce any additional
information.
+ All numbers, like price, date, time or phone numbers must appear exactly as
they are in the sources.
+ Give as comprehensive answer as possible given the sources. Include all
important details, and any caveats and conditions that apply.
+ The answer MUST be in English.
+ Don't try to make up an answer: If the answer cannot be found in the sources,
you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.
Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.
Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?
Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.
Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION
Begin! Let's work this out step by step to be sure we have the right answer.
Sources:
$sources
$end-user-metadata
$conversation
Human: $original-query
AI:
Substituto do repositório de dados
Essa seção tem as seguintes configurações:
- Link de fallback: mostre o link mais apropriado se o agente não produzir uma resposta.
- Ativar IA generativa: permite que o repositório de dados use IA generativa ao gerar resultados.