Os agentes têm muitas configurações que afetam o comportamento. Cada console oferece configurações diferentes.
Configurações do agente no console dos agentes de conversação
Para acessar as configurações do agente:
Console
- Abra o console de agentes de conversação.
- Escolha o projeto Google Cloud .
- Selecione seu agente.
- Clique no ícone de configurações no canto superior direito.
- Atualize as configurações conforme desejado.
- Clique em Save.
API
Veja os métodos get
e patch/update
para o tipo Agent
.
Selecione um protocolo e uma versão para a referência do agente:
Protocolo | V3 | V3beta1 |
---|---|---|
REST | Recurso do agente | Recurso do agente |
RPC (remote procedure call) | Interface do agente | Interface do agente |
C++ | AgentsClient (em inglês) | Indisponível |
C# | AgentsClient (em inglês) | Indisponível |
Go | AgentsClient (em inglês) | Indisponível |
Java | AgentsClient (em inglês) | AgentsClient (em inglês) |
Node.js | AgentsClient (em inglês) | AgentsClient (em inglês) |
PHP | Indisponível | Indisponível |
Python | AgentsClient (em inglês) | AgentsClient (em inglês) |
Ruby | Indisponível | Indisponível |
As subseções a seguir descrevem as diferentes categorias de configurações do agente.
Configurações gerais
As seguintes configurações gerais estão disponíveis para agentes:
-
Um nome legível para seu agente.
-
O fuso horário padrão do seu agente.
-
Essa configuração determina se o agente inicia a conversa com um playbook generativo ou um fluxo determinístico.
-
A região do agente selecionada ao criar o agente.
-
Bloquear o agente
Indica se o agente está bloqueado. Não é possível editar um agente bloqueado.
-
Ativar o Cloud Logging
Indica se o Cloud Logging está ativado para o agente.
Ativar o histórico de conversas
Indica se você quer que o Google colete e armazene consultas do usuário final editadas para melhorar a qualidade.
Ativar a exclusão de entrada do usuário final com base no consentimento
Se essa configuração estiver ativada, você poderá usar um parâmetro de sessão especial para controlar se a entrada e os parâmetros do usuário final são excluídos do histórico de conversas e do registro do Cloud. Por padrão, o parâmetro de sessão é
true
. Se essa configuração estiver desativada, não haverá ocultação.O consentimento do usuário é coletado usando um parâmetro de sessão booleano:
$session.params.conversation-redaction
. Se essa configuração estiver ativada e o parâmetro de sessão estiver definido comofalse
, não haverá edição (outras estratégias de edição ainda se aplicam). Se essa configuração estiver ativada e o parâmetro de sessão estiver definido comotrue
, a omissão vai ocorrer.Um exemplo de fluxo de solicitação de consentimento pode ser: primeiro perguntar ao usuário se ele quer manter a entrada do usuário final e corresponder a resposta com duas intents, uma é "intent de sim" e a outra é "intent de não". Em seguida, defina o parâmetro da sessão como
false
(sem edição) nas predefinições de parâmetro da rota "intent yes" no fulfillment e comotrue
(ocorre edição) na predefinição de parâmetro da rota "no intent".
-
Ativar a exportação do BigQuery
Indica se a exportação do BigQuery está ativada.
Conjunto de dados do BigQuery
O nome do conjunto de dados do BigQuery.
Tabela do BigQuery
O nome da tabela do BigQuery.
-
É possível ativar as sugestões de intent.
-
É possível ativar essa configuração para enviar feedback sobre a qualidade das respostas do agente, incluindo marcações de "Gostei" e "Não gostei".
-
Use essa configuração para adicionar uma integração do Git.
Configurações da IA generativa
As seguintes configurações de IA generativa estão disponíveis:
Geral
Seleção de modelos generativos
Selecione o modelo usado pelos recursos generativos. Para mais informações, consulte versões do modelo.
Limites de tokens
-
Selecione o limite de tokens de entrada para o modelo generativo. Esse é o tamanho máximo de token para entrada enviada ao modelo. Dependendo do modelo, um token pode ter entre um caractere e uma palavra. Limites de token menores têm latência mais baixa, mas o tamanho da entrada do modelo é limitado. Os limites de token maiores têm latência maior, mas o tamanho da entrada do modelo pode ser maior.
-
Selecione o limite de tokens de saída para o modelo generativo. Esse é o tamanho máximo do token para a saída recebida do modelo. Dependendo do modelo, um token pode ter entre um caractere e uma palavra. Limites de token menores têm latência mais baixa, mas o tamanho da saída do modelo é limitado. Limites de token maiores têm latência maior, mas o tamanho da saída do modelo pode ser maior.
-
-
A temperatura de um LLM permite controlar a criatividade das respostas. Um valor baixo gera respostas mais previsíveis. Um valor alto gera respostas mais criativas ou aleatórias.
-
A configuração elimina algumas jogadas anteriores do comando do LLM para evitar que o tamanho do comando aumente a cada jogada sequencial processada pelo agente. Esse recurso oferece uma maneira de minimizar o crescimento indesejado do tamanho do comando.
Normalmente, sem truncamento, cada turno subsequente é anexado ao "histórico de conversas" da solicitação do LLM, independentemente de ser relevante para o turno atual. Isso pode fazer com que o tamanho da solicitação aumente a cada vez que você a ativa. À medida que mais do comando é usado pelo histórico de conversas, menos do comando pode ser usado para exemplos de poucas fotos, que podem ser descartados. Eventualmente, o comando também pode violar os limites atuais de token. É possível aumentar os tamanhos de token para acomodar isso, mas lembre-se de que o aumento do tamanho do comando também aumenta a latência de resposta do LLM.
O truncamento de contexto permite definir uma porcentagem do orçamento de tokens a ser reservado para o histórico de conversas, como um valor máximo. As trocas de conversa são preservadas na ordem mais recente para menos recente. Essa configuração pode ajudar a evitar que os limites de token sejam excedidos. Independentemente da configuração escolhida, pelo menos duas rodadas de conversa são preservadas, na ordem mais recente a menos recente.
Primeiro, defina um limite de token para poder modificar essa configuração.
O truncamento do contexto pode fazer com que alguns parâmetros sejam perdidos acidentalmente se fizerem parte de turnos eliminados. Avalie suas interações de playbook com cuidado depois de ativar essa opção.
O orçamento de entrada de token também é usado por:
- Instruções e exemplos do sistema: são adicionados automaticamente ao comando. Esse comportamento não pode ser modificado.
- Instruções e metas do Playbook: todas as instruções e metas que você escrever serão adicionadas ao comando na íntegra.
- Exemplos de poucos exemplos de playbook: são adicionados em ordem (por padrão) ou por um algoritmo escolhido (como a ordenação de correspondência de expressão regular). Os exemplos são selecionados para caber no orçamento de token de entrada depois que todos os outros itens são incluídos.
- Histórico de conversas composto por enunciados do usuário e do agente, contexto de transição de fluxo e playbook, chamadas de ferramentas e saídas na mesma sessão de todas as rodadas anteriores processadas sequencialmente pelo playbook atual.
-
Lista de frases proibidas para a IA generativa. Se uma frase proibida aparecer no comando ou na resposta gerada, a geração vai falhar. A lista de frases banidas tem consequências em cada consulta e chamada de LLM e aumenta a latência.
-
Configure os níveis de sensibilidade dos filtros de segurança em relação a diferentes categorias de IA responsável (RAI). O conteúdo será avaliado com base nas quatro categorias a seguir:
Categoria Descrição Discurso de ódio Comentários negativos ou nocivos voltados à identidade e/ou atributos protegidos. Conteúdo perigoso Promove ou permite o acesso a produtos, serviços e/ou atividades prejudiciais Conteúdo sexualmente explícito Contém referências a atos sexuais e/ou outro conteúdo obsceno Assédio Comentários maliciosos, intimidantes, abusivos e/ou violentos direcionados a outra pessoa O conteúdo é bloqueado com base na probabilidade de ser nocivo. O nível de sensibilidade pode ser personalizado escolhendo uma das opções Bloquear alguns, Bloquear alguns e Bloquear a maioria para cada categoria. Você também pode acessar a opção restrita Não bloquear, que desativa as verificações de RAI para a categoria após enviar uma solicitação de reconhecimento de risco para seu projeto e receber a aprovação.
Para mais informações, consulte Configurar atributos de segurança.
-
Você pode verificar a configuração ativar a confirmação de segurança para ativar as confirmações de segurança. Quando ativado, o agente vai tentar impedir ataques de injeção de comando. Esses ataques podem ser usados para revelar partes da solicitação do agente ou para fornecer respostas que o agente não deveria fornecer. Isso é feito enviando uma solicitação de LLM adicional que verifica se a consulta do usuário é possivelmente maliciosa.
Substituto generativo
Datastore
Fluxos determinísticos
Essas configurações se aplicam a todos os fluxos desse agente, exceto as configurações de ML que são aplicadas por fluxo. Para editar outras configurações específicas do fluxo, acesse o fluxo no console e edite as configurações.
Treinamento de intent
O Flows usa algoritmos de machine learning (ML) para entender as entradas do usuário final, fazer a correspondência com intents e extrair dados estruturados. Os fluxos aprendem com as frases de treinamento fornecidas por você e com os modelos de linguagem incorporados aos fluxos. Com base nesses dados, ele cria um modelo para tomar decisões sobre qual intent deve ser combinada com uma entrada do usuário final. É possível aplicar configurações de ML exclusivas a cada fluxo de um agente.
As seguintes configurações de treinamento de intent estão disponíveis:
-
Se esse recurso estiver ativado, e a entrada do usuário final tiver um erro ortográfico ou gramatical, um intent será escolhido como se a entrada estivesse correta. A resposta do intent de detecção conterá a entrada de usuário final corrigida. Por exemplo, se um usuário final digitar "Quero uma caçã", a frase será processada como se o usuário final tivesse digitado "Quero uma maçã". Isso também se aplica a correspondências envolvendo entidades do sistema e personalizadas.
A correção ortográfica está disponível em inglês, francês, alemão, espanhol e italiano. Ele está disponível em todas as regiões dos agentes de conversação (Dialogflow CX).
Avisos e práticas recomendadas:
- A correção ortográfica não corrige erros de reconhecimento de fala automático (ASR, na sigla em inglês). Portanto, não recomendamos ativá-la para agentes que usam entradas de ASR.
- É possível que a entrada corrigida corresponda à intent errada. Isso pode ser corrigido com a inclusão de frases normalmente divergentes em .
- A correção ortográfica aumenta um pouco o tempo de resposta do agente.
- Se um agente for definido usando jargão específico do domínio, as correções poderão ser indesejadas.
Configurações de ML específicas do fluxo
-
Pode ser:
- NLU avançado (padrão): tecnologia NLU avançada. Esse tipo de NLU funciona melhor que o padrão, especialmente para agentes e fluxos grandes.
- PLN padrão: tecnologia de PLN padrão. Não vai mais receber melhorias de qualidade ou novos recursos.
-
Se ativado, o fluxo é treinado sempre que é atualizado com o console. Isso pode causar atrasos na IU do console no caso de fluxos grandes. Portanto, desative essa configuração e treine os fluxos manualmente conforme necessário.
-
Para filtrar resultados falsos positivos e ainda conseguir variedade nas entradas de linguagem natural correspondentes para seu agente, ajuste o limiar de classificação de machine learning. Essa configuração controla a confiança de detecção de intent mínima necessária para uma correspondência de intent.
Se a pontuação de confiança de uma correspondência de intent for menor que o valor do limite, um evento sem correspondência será invocado.
É possível definir um valor de limite de classificação separado para cada fluxo em cada idioma ativado para o agente. Isso é feito para acomodar diferentes idiomas com melhor desempenho em diferentes limites de classificação. Para mais informações sobre como criar um agente multilíngue, consulte a documentação de agentes multilíngues.
-
Indica se o fluxo foi treinado desde a atualização mais recente dos dados do fluxo.
-
Use esse botão para treinar manualmente o fluxo.
-
-
Os idiomas compatíveis com seu agente. Depois que um agente é criado, o idioma padrão não pode ser alterado. No entanto, é possível fazer o seguinte:
- Exporte o agente para o formato JSON.
- Extraia o arquivo salvo.
- Encontre o arquivo
agent.json
. - Atualize os campos
defaultLanguageCode
esupportedLanguageCodes
para os valores desejados. - Restaure o agente para o mesmo agente ou um diferente da etapa 1.
- Atualize as frases de treinamento e os valores de entidade específicos do idioma conforme necessário.
Também é possível ativar a detecção e troca automática de idioma.
-
Conectividade
Modelo de payload personalizado
Nesta seção, você pode criar descrições e payloads para modelos de payload personalizados.
-
Declare claramente quais parâmetros dos parâmetros de sessão serão enviados ao webhook e quais parâmetros de sessão podem ser definidos pela resposta do webhook.
Configurações do certificado do cliente
Usado para fazer upload de certificados SSL.
Fala e URA
Opções de fala
-
-
É possível selecionar o idioma e a voz usados para a síntese de voz.
Para ativar a Voz personalizada do agente, selecione a opção "Voz personalizada" no campo de seleção de voz e especifique o nome da voz personalizada no campo correspondente. O nome da voz personalizada precisa seguir o seguinte padrão:
projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME
.- Se você estiver usando um gateway de telefonia, verifique se a conta de serviço Agente de serviço do Dialogflow
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
recebeu o "Preditor do AutoML" no seu projeto de voz personalizada. - Para chamadas de API regulares, verifique se a conta de serviço usada para chamar agentes de conversação (Dialogflow CX) tem o papel "Preditor do AutoML" no seu projeto de voz personalizado.
- Se você estiver usando um gateway de telefonia, verifique se a conta de serviço Agente de serviço do Dialogflow
-
-
Ativar a adaptação automática de fala
Consulte Adaptação automática de fala.
Ativar as configurações avançadas de fala
Para saber mais sobre as opções de fala avançadas, consulte o guia Configurações de fala avançadas.
-
Consulte DTMF para integrações de telefonia para mais informações.
Ativar a adaptação manual de fala
Consulte adaptação manual de fala.
-
Companheiro de chamada
Consulte Companheiro de chamada.
Configurações da interface
Você pode usar essas configurações para personalizar as interfaces do usuário do Messenger e do Call Companion.
Segurança
Consulte Configurações de segurança.
Configurações do agente do console do Dialogflow CX
Para acessar as configurações do agente:
Console
- Abra o console do Dialogflow CX.
- Escolha o projeto Google Cloud .
- Selecione seu agente.
- Clique em Configurações do agente.
- Atualize as configurações conforme desejado.
- Clique em Save.
API
Veja os métodos get
e patch/update
para o tipo Agent
.
Selecione um protocolo e uma versão para a referência do agente:
Protocolo | V3 | V3beta1 |
---|---|---|
REST | Recurso do agente | Recurso do agente |
RPC (remote procedure call) | Interface do agente | Interface do agente |
C++ | AgentsClient (em inglês) | Indisponível |
C# | AgentsClient (em inglês) | Indisponível |
Go | AgentsClient (em inglês) | Indisponível |
Java | AgentsClient (em inglês) | AgentsClient (em inglês) |
Node.js | AgentsClient (em inglês) | AgentsClient (em inglês) |
PHP | Indisponível | Indisponível |
Python | AgentsClient (em inglês) | AgentsClient (em inglês) |
Ruby | Indisponível | Indisponível |
As subseções a seguir descrevem as diferentes categorias de configurações do agente.
Configurações gerais
As seguintes configurações gerais estão disponíveis para agentes:
Nome de exibição
Um nome legível para seu agente.
Fuso horário
O fuso horário padrão do seu agente.
Idioma padrão
O idioma padrão compatível com seu agente. Depois que um agente é criado, o idioma padrão não pode ser alterado. No entanto, é possível fazer o seguinte:
- Exporte seu agente para o formato JSON.
- Descompacte o arquivo salvo.
- Encontre o arquivo
agent.json
. - Atualize os campos
defaultLanguageCode
esupportedLanguageCodes
para os valores desejados. - Restaure o agente para o mesmo ou outro agente da etapa 1.
- Atualize as frases de treinamento e os valores de entidade específicos do idioma conforme necessário.
Bloqueio do agente
Bloquear o agente
Indica se o agente está bloqueado. Não é possível editar um agente bloqueado.
Configurações de registro
Ativar o Cloud Logging
Indica se o Cloud Logging está ativado para o agente.
Ativar a geração de registros de interação
Indica se você quer que o Google colete e armazene consultas do usuário final editadas para melhorar a qualidade.
Ativar a exclusão de entrada do usuário final com base no consentimento
Se essa configuração estiver ativada, você poderá usar um parâmetro de sessão especial para controlar se a entrada do usuário final e os parâmetros são editados do histórico de conversas e do registro do Cloud. Por padrão, o parâmetro de sessão é
true
. Se essa configuração estiver desativada, não haverá ocultação.O consentimento do usuário é coletado usando um parâmetro de sessão booleano:
$session.params.conversation-redaction
. Se essa configuração estiver ativada e o parâmetro de sessão estiver definido comofalse
, não haverá edição (outras estratégias de edição ainda se aplicam). Se essa configuração estiver ativada e o parâmetro de sessão estiver definido comotrue
, a omissão vai ocorrer.Um exemplo de fluxo de solicitação de consentimento pode ser: primeiro perguntar ao usuário se ele quer manter a entrada do usuário final e corresponder a resposta com duas intents, uma é "intent de sim" e a outra é "intent de não". Em seguida, defina o parâmetro da sessão como
false
(sem edição) nas predefinições de parâmetro da rota "intent yes" no fulfillment e comotrue
(ocorre edição) na predefinição de parâmetro da rota "no intent".
BigQuery Export
Ativar a exportação do BigQuery
Indica se a exportação do BigQuery está ativada.
Conjunto de dados do BigQuery
O nome do conjunto de dados do BigQuery.
Tabela do BigQuery
O nome da tabela do BigQuery.
Sugestões de intent
É possível ativar as sugestões de intent.
Modelo de payload personalizado
Nesta seção, você pode criar descrições e payloads para modelos de payload personalizados.
Configurações de ML
Os agentes de conversação (Dialogflow CX) usam algoritmos de machine learning (ML) para entender as entradas do usuário final, fazer a correspondência com intents e extrair dados estruturados. Os agentes de conversação (Dialogflow CX) aprendem com as frases de treinamento fornecidas por você e com os modelos de linguagem incorporados aos agentes de conversação (Dialogflow CX). Com base nesses dados, ele cria um modelo para tomar decisões sobre qual intent deve ser combinada com uma entrada do usuário final. É possível aplicar configurações de ML exclusivas a cada fluxo de um agente, e o modelo criado pelos agentes de conversação (Dialogflow CX) é exclusivo para cada fluxo.
As seguintes configurações de ML em todo o agente estão disponíveis:
Permição para que o ML corrija a ortografia
Se esse recurso estiver ativado, e a entrada do usuário final tiver um erro ortográfico ou gramatical, um intent será escolhido como se a entrada estivesse correta. A resposta do intent de detecção conterá a entrada de usuário final corrigida. Por exemplo, se um usuário final digitar "Quero uma caçã", a frase será processada como se o usuário final tivesse digitado "Quero uma maçã". Isso também se aplica a correspondências envolvendo entidades do sistema e personalizadas.
A correção ortográfica está disponível em inglês, francês, alemão, espanhol e italiano. Ele está disponível em todas as regiões dos agentes de conversação (Dialogflow CX).
Avisos e práticas recomendadas:
- A correção ortográfica não corrige erros de reconhecimento de fala automático (ASR, na sigla em inglês). Portanto, não recomendamos ativá-la para agentes que usam entradas de ASR.
- É possível que a entrada corrigida corresponda à intent errada. Isso pode ser corrigido com a inclusão de frases normalmente divergentes em .
- A correção ortográfica aumenta um pouco o tempo de resposta do agente.
- Se um agente for definido usando jargão específico do domínio, as correções poderão ser indesejadas.
As seguintes configurações de ML específicas para fluxo estão disponíveis:
Tipo de PLN
Pode ser:
- NLU avançado (padrão): tecnologia NLU avançada. Esse tipo de NLU funciona melhor que o padrão, especialmente para agentes e fluxos grandes.
- PLN padrão: tecnologia de PLN padrão. Não vai mais receber melhorias de qualidade ou novos recursos.
Treinamento automático
Se ativado, o fluxo é treinado sempre que é atualizado com o console. Isso pode causar atrasos na IU do console no caso de fluxos grandes. Portanto, desative essa configuração e treine os fluxos manualmente conforme necessário.
Limiar de classificação
Para filtrar resultados falsos positivos e ainda conseguir variedade nas entradas de linguagem natural correspondentes para seu agente, ajuste o limiar de classificação de machine learning. Essa configuração controla a confiança de detecção de intent mínima necessária para uma correspondência de intent.
Se a pontuação de confiança de uma correspondência de intent for menor que o valor do limite, um evento sem correspondência será invocado.
É possível definir um valor de limite de classificação separado para cada fluxo em cada idioma ativado para o agente. Isso é feito para acomodar diferentes idiomas com melhor desempenho em diferentes limites de classificação. Para mais informações sobre como criar um agente multilíngue, consulte a documentação de agentes multilíngues.
Status do treinamento
Indica se o fluxo foi treinado desde a atualização mais recente dos dados do fluxo.
Treinar PLN
Use esse botão para treinar manualmente o fluxo.
Configurações da IA generativa
As seguintes configurações de IA generativa estão disponíveis:
Geral
Frases proibidas
Lista de frases proibidas para a IA generativa. Se uma frase proibida aparecer no comando ou na resposta gerada, a geração vai falhar.
Filtros de segurança
Configure os níveis de sensibilidade dos filtros de segurança em relação a diferentes categorias de IA responsável (RAI). O conteúdo será avaliado com base nas quatro categorias a seguir:
Categoria Descrição Discurso de ódio Comentários negativos ou nocivos voltados à identidade e/ou atributos protegidos. Conteúdo perigoso Promove ou permite o acesso a produtos, serviços e atividades prejudiciais Conteúdo sexualmente explícito Contém referências a atos sexuais ou outro conteúdo obsceno Assédio Comentários maliciosos, intimidantes, abusivos ou violentos direcionados a outra pessoa O conteúdo é bloqueado com base na probabilidade de ser nocivo. O nível de sensibilidade pode ser personalizado escolhendo uma das opções Bloquear alguns, Bloquear alguns e Bloquear a maioria para cada categoria. Você também pode acessar a opção restrita Não bloquear, que desativa as verificações de RAI para a categoria após enviar uma solicitação de reconhecimento de risco para seu projeto e receber a aprovação.
Para mais informações, consulte Configurar atributos de segurança.
Segurança de comandos
Você pode verificar a configuração enable prompt security check para ativar as verificações de segurança. Quando ativado, o agente vai tentar impedir ataques de injeção de comando. Esses ataques podem ser usados para revelar partes do comando do agente ou para fornecer respostas que o agente não deveria fornecer. Isso é feito enviando uma solicitação de LLM adicional que verifica se a consulta do usuário é possivelmente maliciosa.
Agente generativo
Seleção de modelos generativos
Selecione o modelo usado pelos recursos generativos. Para mais informações, consulte versões do modelo.
Tronco de contexto do playbook
O truncamento de contexto do playbook elimina algumas jogadas anteriores do comando do playbook para evitar que o tamanho do comando aumente a cada jogada sequencial processada pelo playbook. Esse recurso oferece uma maneira de minimizar o crescimento indesejado do tamanho do comando.
Normalmente, sem truncamento, cada turno subsequente é anexado ao "histórico de conversas" da solicitação do LLM, independentemente de ser relevante para o turno atual. Isso pode fazer com que o tamanho da solicitação aumente a cada vez que você a ativa. À medida que mais do comando é usado pelo histórico de conversas, menos do comando pode ser usado para exemplos de poucas fotos, que podem ser descartados. Eventualmente, o comando também pode violar os limites atuais de token. É possível aumentar os tamanhos de token para acomodar isso, mas lembre-se de que o aumento do tamanho do comando também aumenta a latência de resposta do LLM.
O truncamento de contexto do Playbook permite definir uma porcentagem do orçamento de tokens a ser reservado para o histórico de conversas, como um máximo. As trocas de conversa são preservadas na ordem mais recente para menos recente. Essa configuração pode ajudar a evitar que os limites de token sejam excedidos. Independentemente da configuração escolhida, pelo menos duas rodadas de conversa são preservadas, na ordem mais recente a menos recente.
Primeiro, defina um limite de tokens para poder modificar essa configuração.
Importante:o truncamento do contexto pode fazer com que alguns parâmetros sejam perdidos acidentalmente se fizerem parte de turnos eliminados. Avalie suas interações de playbook com cuidado depois de ativar essa opção.
O orçamento de entrada de token também é usado por:
- Instruções e exemplos do sistema: são adicionados automaticamente ao comando. Esse comportamento não pode ser modificado.
- Instruções e metas do Playbook: todas as instruções e metas que você escrever serão adicionadas ao comando na íntegra.
- Exemplos de poucos exemplos de playbook: são adicionados em ordem (por padrão) ou por um algoritmo escolhido (como a ordenação de correspondência de expressão regular). Os exemplos são selecionados para caber no orçamento de token de entrada depois que todos os outros itens são incluídos.
- Histórico de conversas composto por enunciados do usuário e do agente, contexto de transição de fluxo e playbook, chamadas de ferramentas e saídas na mesma sessão de todas as rodadas anteriores processadas sequencialmente pelo playbook atual.
Substituto generativo
Configuração de comando de texto
Datastore
Configurações de fala e de URA
As seguintes configurações de fala e de URA estão disponíveis:
Text-to-Speech
Seleção de voz
É possível selecionar o idioma e a voz usados para a síntese de voz.
Para ativar a Voz personalizada do agente, selecione a opção "Voz personalizada" no campo de seleção de voz e especifique o nome da voz personalizada no campo correspondente. O nome da voz personalizada precisa seguir o seguinte padrão:
projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME
.- Se você estiver usando um gateway de telefonia, verifique se a conta de serviço Agente de serviço do Dialogflow
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
recebeu o "Preditor do AutoML" no seu projeto de voz personalizada. - Para chamadas de API regulares, verifique se a conta de serviço usada para chamar agentes de conversação (Dialogflow CX) tem o papel "Preditor do AutoML" no seu projeto de voz personalizado.
- Se você estiver usando um gateway de telefonia, verifique se a conta de serviço Agente de serviço do Dialogflow
Speech-to-Text
Ativar a adaptação automática de fala
Consulte Adaptação automática de fala.
Configurações avançadas de fala
Para saber mais sobre as opções de fala avançadas, consulte o guia Configurações de fala avançadas.
DTMF
Consulte DTMF para integrações de telefonia para mais informações.
Multimodal
Consulte Companheiro de chamada.
Configurações de compartilhamento
Consulte Controle de acesso.
Configurações de idiomas
Adicione suporte extra ao idioma para o agente. Para ter acesso à lista completa de idiomas, consulte a referência de idioma.
Detecção automática de idioma
Quando você configura a detecção automática de idioma, o agente de chat detecta automaticamente o idioma do usuário final e muda para esse idioma. Consulte a documentação sobre a detecção automática de idiomas para mais detalhes.
Configurações de segurança
Consulte Configurações de segurança.
Configurações avançadas
Atualmente, a única configuração avançada é para a análise de sentimento.
Configurações do console do Agent Builder
Esta seção descreve as configurações disponíveis para apps de agentes.
Geral
As seguintes configurações gerais estão disponíveis para apps de agentes:
Nome de exibição
Um nome legível para humanos do seu app de agente.
Local
A região do app do agente.
Bloqueio de apps
Se ativada, não é permitido fazer mudanças no app do agente.
Logging
As seguintes configurações de geração de registros estão disponíveis para apps de agentes:
Ativar o Cloud Logging
Se ativada, os registros serão enviados para o Cloud Logging.
Ativar o histórico de conversas
Se estiver ativado, o histórico de conversas vai estar disponível. Indica se você quer que o Google colete e armazene consultas do usuário final editadas para melhorar a qualidade. Essa configuração não afeta se o histórico de conversas é usado para gerar respostas do agente.
Ativar o BigQuery Export
Se ativada, o histórico de conversas é exportado para o BigQuery. A configuração Ativar histórico de conversas também precisa estar ativada.
IA generativa
As seguintes configurações de IA generativa estão disponíveis para apps de agentes:
Seleção de modelo generativo
Selecione o modelo generativo que os agentes vão usar por padrão.
Limite de tokens de entrada
Selecione o limite de tokens de entrada para o modelo generativo. Esse é o tamanho máximo de token para entrada enviada ao modelo. Dependendo do modelo, um token pode ter entre um caractere e uma palavra. Limites de token menores têm latência mais baixa, mas o tamanho da entrada do modelo é limitado. Os limites de token maiores têm latência maior, mas o tamanho da entrada do modelo pode ser maior.
Limite de token de saída
Selecione o limite de tokens de saída para o modelo generativo. Esse é o tamanho máximo do token para a saída recebida do modelo. Dependendo do modelo, um token pode ter entre um caractere e uma palavra. Limites de token menores têm latência mais baixa, mas o tamanho da saída do modelo é limitado. Limites de token maiores têm latência maior, mas o tamanho da saída do modelo pode ser maior.
Temperatura
A temperatura de um LLM permite controlar a criatividade das respostas. Um valor baixo gera respostas mais previsíveis. Um valor alto gera respostas mais criativas ou aleatórias.
Frases proibidas
Lista de frases proibidas para a IA generativa. Se uma frase proibida aparecer no comando ou na resposta gerada, o agente vai retornar uma resposta alternativa.
Filtros de segurança
Configure os níveis de sensibilidade dos filtros de segurança em relação a diferentes categorias de IA responsável (RAI). O conteúdo será avaliado com base nas quatro categorias a seguir:
Categoria Descrição Discurso de ódio Comentários negativos ou nocivos voltados à identidade e/ou atributos protegidos. Conteúdo perigoso Promove ou permite o acesso a produtos, serviços e atividades prejudiciais Conteúdo sexualmente explícito Contém referências a atos sexuais ou outro conteúdo obsceno Assédio Comentários maliciosos, intimidantes, abusivos ou violentos direcionados a outra pessoa O conteúdo é bloqueado com base na probabilidade de ser nocivo. O nível de sensibilidade pode ser personalizado escolhendo uma das opções Bloquear poucos (bloqueando apenas instâncias de conteúdo nocivo de alta probabilidade), Bloquear alguns (instâncias de probabilidade média e alta) e Bloquear a maioria (probabilidade baixa, média e alta) para cada categoria. Você também pode acessar a opção restrita Não bloquear, que desativa as verificações de RAI para a categoria após enviar uma solicitação de reconhecimento de risco para seu projeto e receber a aprovação.
Para mais informações, consulte Configurar atributos de segurança.
Segurança de comandos
Você pode verificar a configuração ativar a confirmação de segurança para ativar as confirmações de segurança. Quando ativado, o agente vai tentar impedir ataques de injeção de comando. Esses ataques podem ser usados para revelar partes da solicitação do agente ou para fornecer respostas que o agente não deveria fornecer. Isso é feito enviando uma solicitação de LLM adicional que verifica se a consulta do usuário é possivelmente maliciosa.
Git
Essas configurações oferecem uma integração do Git. Siga as instruções para configurar a integração.