Configurações do agente de repositório de dados

O seguinte agente de repositório de dados padrão estão disponíveis.

Embasamento

Para cada resposta gerada com base no conteúdo dos seus repositórios de dados conectados, uma nível de confiança, que mede a confiança de que todas as informações na resposta é compatível com as informações nos repositórios de dados. Selecione o nível de confiança mais baixo permitido e o agente não vai retornar respostas mais baixas que esse nível.

Há cinco níveis de confiança para escolher: muito baixo, baixo, médio, alto e muito alta.

Também é possível aplicar um filtro de heurística de embasamento. Se ativadas, as respostas com conteúdo que seja provavelmente impreciso com base em alucinações comuns são suprimida.

Comando do repositório de dados

Você tem a opção de adicionar outras informações sobre o agente que podem melhoram a qualidade das respostas geradas com base no conteúdo do repositório de dados se sentir mais com sua marca:

  • Nome do agente: como o agente deve se chamar. Se não for definida, será usado o valor padrão Assistente de IA.
  • Identidade do agente: o perfil do agente. Se não for definida, será usado o valor padrão Assistente de IA.
  • Nome da empresa: defina como o nome da sua empresa. Isso já deveria ter sido definido como parte do fluxo de criação do agente, mas ajustável conforme necessário. Ela é recomendado definir este campo corretamente (e especialmente não deixá-lo vazio), para que a qualidade das respostas geradas não seja prejudicada.
  • Descrição da empresa: uma breve descrição do que a empresa faz ou de produtos Google.
  • Escopo do agente: onde o agente deve ser usado. Se você deixar não for configurado, o valor padrão no site da empresa será usado.

Depois de preencher a seção total ou parcialmente, é possível inspecionar lado direito, em Seu comando, o parágrafo curto derivado de essas configurações. Isso é usado como parte da geração de respostas.

Seleção de modelo de repositório de dados e comando de resumo

Quando uma consulta do usuário é processada, o agente realiza uma pesquisa nos repositórios de dados para encontrar boas fontes. Em seguida, o agente envia a consulta do usuário e as origens encontradas para o LLM, que realiza um resumo.

Você pode selecionar qual modelo usar para o resumo e, como opção, fornecer seus próprio comando.

Selecionar modelo generativo

É possível selecionar o modelo generativo usado por um agente de repositório de dados para o solicitação generativa de resumo. A tabela a seguir contém as opções:

Identificador de modelo Suporte a idiomas
Padrão Essa é a configuração recomendada atualmente e está sujeita a alterações ao longo do tempo. Se você usar essa opção, poderá notar mudanças no comportamento do agente (prováveis melhorias). Para mais consistência no comportamento do agente, selecione um modelo específico.
text-bison@002 Disponível em todos os idiomas compatíveis.
gemini-1.0-pro-001 Disponível em todos os idiomas compatíveis.
gemini-1.5-flash-001 (visualização) Disponível em todos os idiomas compatíveis. Observação: essa configuração ainda não é estável e pode mudar com o tempo.

Personalizar o comando de resumo

É possível fornecer seu próprio comando para a chamada do LLM de resumo. O comando é uma de texto que pode conter marcadores de posição predefinidos. Os espaços reservados serão pelos valores apropriados no tempo de execução, e o texto final será enviado ao LLM.

Os marcadores de posição são os seguintes:

  • $original-query: o texto da consulta do usuário.
  • $rewritten-query: o Dialogflow usa um módulo de regravação para reescrever a consulta original do usuário em um formato mais preciso.
  • $sources: o Dialogflow usa o Enterprise Search para pesquisar origens com base na consulta do usuário. As fontes encontradas são renderizadas em um formato formato:

    [1] title of first source
    content of first source
    [2] title of second source
    content of second source
    
  • $end-user-metadata: as informações sobre o usuário que envia a consulta são renderizado no seguinte formato:

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    
  • $conversation: o histórico da conversa é renderizado nos seguintes formato:

    Human: user's first query
    AI: answer to user's first query
    Human: user's second query
    AI: answer to user's second query
    
  • ${conversation USER:"<user prefix>" AI:"<agent prefix>" TURNS:<turn count>}: uma versão parametrizada do marcador $conversation. Você é possível personalizar o prefixo do usuário final (USER), o prefixo do agente (AI) e o número de curvas anteriores a incluir (TURNS). Todos os parâmetros de marcador devem ser especificados.

    Por exemplo, ${conversation USER:"Human says:" AI:"Agent says:" TURNS:1} O histórico de conversas é renderizado como:

    Human says: user's first query
    Agent says: answer to user's first query
    

Um comando personalizado instrui o LLM a retornar "NOT_ENOUGH_INFORMATION" quando não é possível fornecer uma resposta. Nesse caso, o agente invoca uma solicitação no-match evento.

Exemplo:

Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+   Answer the Human's query and make sure you mention all relevant details from
  the sources, using exactly the same words as the sources if possible.
+   The answer must be based only on the sources and not introduce any additional
  information.
+   All numbers, like price, date, time or phone numbers must appear exactly as
  they are in the sources.
+   Give as comprehensive answer as possible given the sources. Include all
  important details, and any caveats and conditions that apply.
+   The answer MUST be in English.
+   Don't try to make up an answer: If the answer cannot be found in the sources,
  you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.

Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.

Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?

Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.

Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION

Begin! Let's work this out step by step to be sure we have the right answer.

Sources:
$sources

$end-user-metadata
$conversation
Human: $original-query
AI:

Substituto do repositório de dados

Essa seção tem as seguintes configurações:

  • Link substituto: mostra o link mais apropriado se o agente não conseguir produza uma resposta.
  • Ativar a IA generativa: permitir que o repositório de dados use a IA generativa quando na geração de resultados.