Casos de teste

É possível usar o recurso de teste integrado para descobrir bugs e evitar regressões. Para testar o agente, crie casos de teste usando o simulador para definir casos de teste dourados e execute os casos de teste conforme necessário. Uma execução de teste verifica se as respostas do agente não foram alteradas para entradas do usuário final definidas no caso de teste.

As instruções abaixo mostram como usar o console, mas você também pode encontrar a mesma funcionalidade na API.

Configurações do simulador

Ao abrir o simulador pela primeira vez, é necessário selecionar um ambiente de agente ou versões de fluxo e um fluxo ativo. Na maioria dos casos, é preciso usar o ambiente de rascunho e o fluxo inicial padrão.

Também é possível ativar ou desativar chamadas de webhook a qualquer momento com o botão de alternância do webhook. A desativação de webhooks é útil ao definir casos de teste.

Entrada do simulador

Ao interagir com o simulador, você fornece a entrada do usuário final como texto e, em seguida, aperte "Enter" ou clique no botão enviar . Além de texto simples, é possível escolher tipos de entrada alternativos com o seletor de entrada :

  • Parâmetro: injetar um valor de parâmetro. É possível fornecer parâmetros novos ou fornecer valores predefinidos para os parâmetros existentes.
  • Evento: invocar um evento.
  • DTMF: envia entrada de sinalização de multifrequência de dois tons (tom de toque) para interações de telefonia.

Criar um caso de teste

Para criar uma conversa:

  1. Abra o Console do Dialogflow CX.
  2. Escolha seu projeto do GCP.
  3. Selecione seu agente.
  4. Clique em Agente de teste para abrir o simulador.
  5. Converse com o agente para criar uma conversa que abranja a funcionalidade que você quer testar. Para cada fala, verifique os valores corretos da intent acionada, a resposta do agente, a página ativa e os parâmetros da sessão.

Captura de tela do simulador

Para salvar uma conversa como um caso de teste:

  1. Clique no botão salvar .
  2. Insira o nome de exibição do caso de teste. Cada caso de teste precisa ter um nome de exibição exclusivo.
  3. Opcionalmente, forneça um nome para a tag. As tags ajudam você a organizar os casos de teste. Todas as tags precisam começar com "#".
  4. Opcionalmente, forneça uma observação que descreva a finalidade do caso de teste.
  5. É possível selecionar os parâmetros que você quer acompanhar no caso de teste. Uma lista de parâmetros sugeridos é fornecida. Também é possível inserir outros parâmetros para rastrear. Se você selecionar parâmetros de rastreamento, a declaração de parâmetro será verificada ao executar o caso de teste. Veja mais detalhes sobre a declaração de parâmetro na seção Executar casos de teste.
  6. Clique em Salvar para salvar o caso de teste.

Executar casos de teste

Para visualizar todos os casos de teste de um agente, clique em Casos de teste na guia Gerenciar. A tabela de casos de teste mostra o nome, as tags, o ambiente e o horário de teste mais recentes, assim como o resultado do teste mais recente.

Para executar casos de teste:

  1. Selecione os casos de testes que você quer executar e clique em Executar. Como alternativa, clique em Executar todos os casos de teste.
  2. Selecione o ambiente em que você quer executar os casos de teste novamente.
  3. Os testes começam a ser executados, e você verá o status na fila de tarefas. O resultado do teste será atualizado quando ele for concluído.

Para ver o resultado detalhado, clique no caso de teste. O caso de teste dourado e as conversas da execução mais recente são mostrados lado a lado.

Captura de tela do simulador

Clique na fala de qualquer agente para ver os detalhes. O mecanismo de teste verifica os seguintes tipos de dados de cada fala para avaliar o resultado do teste:

  • Caixa de diálogo do agente:

    Para cada turno da conversa, o diálogo do agente é comparado da corrida dourada à mais recente. Se houver alguma diferença, um aviso será exibido. Essas diferenças não impedem que um teste seja aprovado, porque a caixa de diálogo do agente geralmente varia para o mesmo estado do agente.

  • Intent correspondente:

    A intent correspondente precisa ser a mesma para cada fala para um teste ser aprovado.

  • Página atual

    A página ativa precisa ser a mesma para cada fala para um teste ser aprovado.

  • Parâmetros de sessão

    Se você tiver adicionado parâmetros de rastreamento ao criar o caso de teste, o mecanismo de testes verificará os parâmetros da sessão correspondentes e o teste falhará se houver parâmetros ausentes/inesperados ou incompatibilidade de valores de parâmetros.

Em algumas situações, um caso de teste pode ter uma falha esperada devido a um agente atualizado. Se a conversa na última execução refletir as alterações esperadas, clique em Salvar como dourado para substituir o caso de teste dourado.

Editar casos de teste

Para editar um caso de teste, selecione-o na tabela Casos de teste e clique no ícone de edição ao lado do nome do caso de teste. A caixa de diálogo Atualizar casos de teste.

Para editar os metadados e as configurações do caso de teste, clique na guia Configurações.

  1. Você pode editar os campos Nome do caso de teste, Tags e Observação ou adicionar novos parâmetros de acompanhamento.

  2. Clique em Save.

Para editar a entrada do usuário para o caso de teste, clique na guia Entrada do usuário.

  1. Adicione, remova ou edite as entradas do usuário no formato JSON.

  2. Clique em Confirm. Um teste automático é iniciado e a conversa atualizada é exibida após a conclusão do teste.

  3. Clique em Salvar para substituir o caso de teste original dourado ou clique em Salvar como para criar um novo caso de teste com as alterações.

Ver cobertura de teste

Para visualizar um relatório de cobertura de teste para todos os casos de teste, clique em Cobertura.

A página Cobertura inclui as seguintes guias:

  • A cobertura de transições é determinada para todos os gerenciadores de estado (sem incluir os grupos de rotas) com um destino de transição aplicado pelo caso de teste. O fluxo/página de origem e o fluxo/página de destino da transição estão listados na tabela.

  • A cobertura de intents é determinada para todas as intents que são correspondidas pelo caso de teste.

  • A cobertura de grupos de rotas é determinada para todos os grupos de rotas que correspondem ao caso de teste.

Importar e exportar casos de teste

Para exportar casos de teste:

  1. Selecione os casos de teste e clique em Exportar ou em Exportar todos os casos de teste.
  2. Clique em Fazer o download para o arquivo local ou forneça um URI de bucket do Cloud Storage e clique em Exportar para o Google Cloud Storage.

Ao importar casos de teste, o Dialogflow sempre cria novos casos de teste para o agente de destino e não substitui os casos de teste atuais. Para importar casos de teste:

  1. Clique em Importar.
  2. Escolha um arquivo local ou forneça um URI de bucket do Cloud Storage.