As seguintes configurações do agente estão disponíveis.
Embasamento
Para cada resposta gerada com base no conteúdo dos seus repositórios de dados conectados, um nível de confiança é calculado, o que mede a confiança de que todas as informações na resposta são compatíveis com as informações nos repositórios de dados. Você pode selecionar o nível de confiança mais baixo permitido, e o agente não vai retornar respostas abaixo disso.
Há cinco níveis de confiança para escolher: muito baixo, baixo, médio, alto e muito alto.
Também é possível aplicar um filtro de heurística de aterramento. Se ativada, as respostas com conteúdo provavelmente impreciso com base em alucinações comuns são suprimidas.
Solicitação de repositório de dados
Você tem a opção de adicionar mais informações sobre o agente que podem melhorar a qualidade das respostas geradas pelo conteúdo da repositório de dados e fazer com que elas pareçam mais com sua marca:
- Nome do agente: o nome que o agente vai usar. Se você não definir esse valor, o valor padrão AI Assistant será usado.
- Identidade do agente: o que será a persona do agente. Se você não definir esse valor, o valor padrão AI Assistant será usado.
- Nome da empresa: defina o nome da sua empresa. Isso já deve ter sido definido como parte do fluxo de criação de agentes, mas pode ser ajustado conforme necessário. É recomendado definir esse campo corretamente (e não deixá-lo vazio), para que a qualidade das respostas geradas não seja afetada.
- Descrição da empresa: uma breve descrição do que a empresa faz ou oferece.
- Escopo do agente: onde o agente deve ser usado. Se você não definir o valor, o padrão no site da empresa será usado.
Depois de preencher essa seção parcialmente ou totalmente, você pode inspecionar no lado direito, em Sua solicitação, o parágrafo curto derivado dessas configurações. Ele é usado como parte da geração de respostas.
Seleção do modelo do repositório de dados e solicitação de resumo
Quando uma consulta do usuário é processada, o agente realiza uma pesquisa nas lojas de dados para encontrar boas origens. Em seguida, o agente envia a consulta do usuário e as fontes encontradas para o LLM, que realiza uma síntese.
Você pode selecionar qual modelo usar para a geração de resumos e, opcionalmente, fornecer seu próprio comando.
Selecionar modelo generativo
É possível selecionar o modelo generativo usado por um agente de repositório de dados para a solicitação generativa de resumo. A tabela a seguir contém as opções disponíveis:
Identificador de modelo | Suporte a idiomas |
---|---|
Padrão | Essa é a configuração recomendada no momento e está sujeita a mudanças ao longo do tempo. Se você usar essa opção, poderá notar mudanças no comportamento do agente (provavelmente melhorias). Se você quiser mais consistência no comportamento do agente, selecione um modelo específico. |
gemini-1.0-pro-001 | Disponível em todos os idiomas com suporte. |
gemini-1.5-flash-001 | Disponível em todos os idiomas com suporte. |
gemini-1.5-flash-002 | Disponível em todos os idiomas com suporte. |
Personalizar o comando de resumo
Você pode fornecer seu próprio comando para a chamada de LLM de resumo. O comando é um modelo de texto que pode conter marcadores de posição predefinidos. Os marcadores de posição serão substituídos pelos valores apropriados no momento da execução, e o texto final será enviado ao LLM.
Os marcadores de posição são os seguintes:
$original-query
: o texto da consulta do usuário.$rewritten-query
: o Dialogflow usa um módulo de reescrita para reescrever a consulta original do usuário em um formato mais preciso.$sources
: o Dialogflow usa a Pesquisa corporativa para procurar fontes com base na consulta do usuário. As fontes encontradas são renderizadas em um formato específico:[1] title of first source content of first source [2] title of second source content of second source
$end-user-metadata
: as informações sobre o usuário que envia a consulta são renderizadas no seguinte formato:The following additional information is available about the human: { "key1": "value1", "key2": "value2", ... }
$conversation
: o histórico de conversas é renderizado no seguinte formato:Human: user's first query AI: answer to user's first query Human: user's second query AI: answer to user's second query
${conversation USER:"<user prefix>" AI:"<agent prefix>" TURNS:<turn count>}
: uma versão parametrizada do marcador de posição$conversation
. É possível personalizar o prefixo do usuário final (USER
), o prefixo do agente (AI
) e o número de turnos anteriores a serem incluídos (TURNS
). Todos os valores de parâmetro de marcador de posição precisam ser especificados.Por exemplo,
${conversation USER:"Human says:" AI:"Agent says:" TURNS:1}
O histórico de conversas é renderizado como:Human says: user's first query Agent says: answer to user's first query
Uma instrução personalizada precisa instruir o LLM a retornar "NOT_ENOUGH_INFORMATION" quando ele não puder fornecer uma resposta. Nesse caso, o agente invoca um evento de não correspondência.
Exemplo:
Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+ Answer the Human's query and make sure you mention all relevant details from
the sources, using exactly the same words as the sources if possible.
+ The answer must be based only on the sources and not introduce any additional
information.
+ All numbers, like price, date, time or phone numbers must appear exactly as
they are in the sources.
+ Give as comprehensive answer as possible given the sources. Include all
important details, and any caveats and conditions that apply.
+ The answer MUST be in English.
+ Don't try to make up an answer: If the answer cannot be found in the sources,
you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.
Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.
Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?
Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.
Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION
Begin! Let's work this out step by step to be sure we have the right answer.
Sources:
$sources
$end-user-metadata
$conversation
Human: $original-query
AI:
Alternativa do repositório de dados
Esta seção tem as seguintes configurações:
- Link alternativo: mostre o link mais adequado se o agente não conseguir produzir uma resposta.
- Ativar a IA generativa: permita que o repositório de dados use a IA generativa ao gerar resultados.