Métodos e métricas de avaliação

Nesta página, você terá uma visão geral das nossas métricas de avaliação atuais e como usar cada uma delas.

Por pontos vs. em pares

Você precisa identificar sua meta de avaliação antes de determinar quais métricas aplicar. Isso inclui determinar se é necessário realizar uma avaliação por pontos ou em pares, conforme mencionado em Paradigmas de avaliação.

Paradigma Quando usar
Por pontos Entenda como seu modelo se comporta na produção:
  • Explore os pontos fortes e fracos de um único modelo.
  • Identifique quais comportamentos se concentrar durante o ajuste.
  • Consiga o desempenho de referência de um modelo.
Em pares Determine qual modelo colocar em produção:
  • Escolha entre os tipos de modelos. Por exemplo, Gemini-Pro versus Claude 3.
  • Escolha entre diferentes comandos.
  • Determina se o ajuste fez melhorias em um modelo de referência.

Tarefas e métricas

É possível avaliar modelos de linguagem grandes (LLMs) nas quatro tarefas amplas a seguir:

Para cada tarefa, é possível avaliar os LLMs usando um conjunto fixo de métricas granulares, como qualidade, relevância e utilidade. É possível avaliar qualquer combinação dessas métricas em uma determinada instância de avaliação. Para cada métrica, é necessário especificar os parâmetros de entrada.

Para ajudar a identificar quais tarefas e métricas você quer avaliar, considere o papel do seu modelo e os comportamentos mais importantes dele para você.

Resumo

As métricas a seguir ajudam a avaliar o resumo do modelo.

Qualidade

A métrica summarization_quality descreve a capacidade do modelo de resumir texto.

  • Aceita em pares: sim
  • Limite de tokens: 4.096

Critérios de avaliação

Critério de avaliação Descrição
Segue as instruções A resposta do modelo demonstra que o comando entendeu a instrução.
Embasado A resposta contém apenas informações do contexto de inferência e da instrução de inferência.
Abrangente O modelo captura detalhes importantes no resumo.
Resumo O resumo não é muito prolixo ou muito breve.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
instruction Instruções de resumo fornecidas no momento da inferência. As instruções podem conter informações como tom e formatação. Por exemplo, Summarize the text from the point of view of the computer, including all references to AI..
context O texto a ser resumido.
prediction A resposta do LLM dos parâmetros instruction e context.
baseline_prediction (somente em pares) A resposta do LLM de referência a ser comparada com prediction. Ambas as respostas compartilham os mesmos instruction e context.

Pontuações de saída por pontos

Valor Descrição
1 Muito ruim
2 Ruim
3 OK
4 Bom
5 Muito bom

Utilidade

A métrica summarization_helpfulness descreve a capacidade do modelo de atender à consulta de um usuário resumindo os detalhes relevantes no texto original sem perda significativa de informações importantes.

  • Aceita em pares: não
  • Limite de tokens: 4.096

Critérios de avaliação

Critério de avaliação Descrição
Abrangente O modelo captura detalhes importantes para atender à consulta do usuário.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
instruction Instruções de resumo fornecidas no momento da inferência. As instruções podem conter informações como tom e formatação. Por exemplo, Summarize the text from the point of view of the computer, including all references to AI..
context O texto a ser resumido.
prediction A resposta do LLM dos parâmetros instruction e context.

Pontuações de saída por pontos

Valor Descrição
1 Não
2 Um pouco inútil
3 Neutro
4 Pouco útil
5 Útil

Verbosidade

A métrica summarization_verbosity mede se um resumo é muito longo ou muito curto.

  • Aceita em pares: não
  • Limite de tokens: 4.096

Critérios de avaliação

Critério de avaliação Descrição
Resumo A resposta não é muito prolixa nem muito breve.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
instruction Instruções de resumo fornecidas no momento da inferência. As instruções podem conter informações como tom e formatação. Por exemplo, Summarize the text from the point of view of the computer, including all references to AI..
context O texto a ser resumido.
prediction A resposta do LLM dos parâmetros instruction e context.

Pontuações de saída por pontos

Valor Descrição
-2 Lacônico
-1 Um pouco conciso
0 Ideal
1 Um pouco detalhado
2 Detalhado

Respostas a perguntas

Com as métricas a seguir, você avalia a capacidade do modelo de responder a perguntas.

Qualidade

A métrica question_answering_quality descreve a capacidade do modelo de responder a perguntas considerando um corpo de texto para referência.

  • Aceita em pares: sim
  • Limite de tokens: 4.096

Critérios de avaliação

Critério de avaliação Descrição
Segue as instruções A resposta responde à pergunta e segue todas as instruções.
Embasado A resposta contém apenas informações do contexto de inferência e da instrução de inferência.
Relevância A resposta contém detalhes relevantes à instrução.
Abrangente O modelo captura detalhes importantes da pergunta.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
instruction A pergunta a ser respondida e as instruções de resposta são fornecidas no momento da inferência. As instruções podem conter informações como tom e formatação. Por exemplo, How long does it take to bake the apple pie? Give an overestimate and an underestimate in your response..
context O texto para reference ao responder à pergunta. No exemplo de inference_instruction, isso pode incluir o texto na página de um site de culinária.
prediction A resposta do LLM dos parâmetros instruction e context.
baseline_prediction (somente em pares) A resposta do LLM de referência a ser comparada com prediction. Ambas as respostas compartilham os mesmos instruction e context.

Pontuações de saída por pontos

Valor Descrição
1 Muito ruim
2 Ruim
3 OK
4 Bom
5 Muito bom

Utilidade

A métrica QuestionAnsweringHelpfulness descreve a capacidade do modelo de fornecer detalhes importantes ao responder a uma pergunta.

  • Aceita em pares: não
  • Limite de tokens: 4.096

Critérios de avaliação

Critério de avaliação Descrição
Útil A resposta atende à consulta do usuário.
Abrangente O modelo captura detalhes importantes para atender à consulta do usuário.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
instruction A pergunta a ser respondida e as instruções de resposta fornecidas no momento da inferência. Por exemplo, How long does it take to bake the apple pie? Give an overestimate and an underestimate in your response..
context O texto a ser usado para responder à pergunta. No exemplo de inference_instruction, isso pode incluir o texto na página de um site de culinária.
prediction A resposta do LLM dos parâmetros instruction e context.

Pontuações de saída por pontos

Valor Descrição
1 Não
2 Um pouco inútil
3 Neutro
4 Pouco útil
5 Útil

Correção

A métrica QuestionAnsweringCorrectness descreve a capacidade do modelo de responder corretamente a uma pergunta.

  • Aceita em pares: não
  • Limite de tokens: 4.096

Critérios de avaliação

Critério de avaliação Descrição
Contém todas as declarações de referência A resposta contém todas as declarações de referência.
Não contém mais declarações do que a referência A resposta não contém declarações que não estão presentes na referência.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
instruction A pergunta a ser respondida e as instruções de resposta são fornecidas no momento da inferência. As instruções podem conter informações como tom e formatação. Por exemplo, How long does it take to bake the apple pie? Give an overestimate and an underestimate in your response..
context O texto a ser referenciado para responder à pergunta. Por exemplo, o texto na página de um site de culinária.
prediction A resposta do LLM dos parâmetros instruction e context.
reference A resposta dourada do LLM para referência.

Pontuações de saída por pontos

Valor Descrição
0 Incorreto
1 Correto

Relevância

A métrica QuestionAnsweringRelevance descreve a capacidade do modelo de responder com informações relevantes quando uma pergunta é feita.

  • Aceita em pares: não
  • Limite de tokens: 4.096

Critérios de avaliação

Critério de avaliação Descrição
Relevância A resposta contém detalhes relevantes à instrução.
Clareza A resposta contêm informações claramente definidas que abordam diretamente a instrução.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
instruction A pergunta a ser respondida e as instruções de resposta fornecidas no momento da inferência. As instruções podem conter informações como tom e formatação. Por exemplo, How long does it take to bake the apple pie? Give an overestimate and an underestimate in your response..
context O texto a ser referenciado para responder à pergunta. No exemplo de inference_instruction, isso pode incluir o texto na página de um site de culinária.
prediction A resposta do LLM dos parâmetros instruction e context.

Pontuações de saída por pontos

Valor Descrição
1 O conteúdo é irrelevante
2 Um pouco irrelevante
3 Neutro
4 Um pouco relevante
5 Relevante

Uso da ferramenta

As métricas a seguir ajudam você a avaliar a capacidade do modelo de prever uma chamada de ferramenta válida.

Chamada válida

A métrica tool_call_valid descreve a capacidade do modelo de prever uma chamada de ferramenta válida. Apenas a primeira chamada de ferramenta é inspecionada.

  • Aceita em pares: não
  • Limite de tokens: nenhum

Critérios de avaliação

Critério de avaliação Descrição
Validade A saída do modelo contém uma chamada de ferramenta válida.
Formatação Um dicionário JSON contém os campos name e arguments.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
prediction A saída do modelo candidato, que é uma string serializada JSON que contém as chaves content e tool_calls. O valor content é a saída de texto do modelo. O valor tool_calls é uma string serializada JSON de uma lista de chamadas de ferramenta. Veja um exemplo:

{"content": "", "tool_calls": [{"name": "book_tickets", "arguments": {"movie": "Mission Impossible Dead Reckoning Part 1", "theater":"Regal Edwards 14", "location": "Mountain View CA", "showtime": "7:30", "date": "2024-03-30","num_tix": "2"}}]}
reference A previsão de referência de informações empíricas, que segue o mesmo formato de prediction.

Pontuações de saída

Valor Descrição
0 Chamada de ferramenta inválida
1 Chamada de ferramenta válida

Correspondência de nome

A métrica ToolNameMatch descreve a capacidade do modelo de prever uma chamada de ferramenta com o nome correto da ferramenta. Apenas a primeira chamada de ferramenta é inspecionada.

  • Aceita em pares: não
  • Limite de tokens: nenhum

Critérios de avaliação

Critério de avaliação Descrição
Segue as instruções A chamada da ferramenta prevista pelo modelo corresponde ao nome da chamada de ferramenta de referência.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
prediction A saída do modelo candidato, que é uma string serializada JSON que contém as chaves content e tool_calls. O valor content é a saída de texto do modelo. O valor tool_call é uma string serializada JSON de uma lista de chamadas de ferramenta. Veja um exemplo:

{"content": "","tool_calls": [{"name": "book_tickets", "arguments": {"movie": "Mission Impossible Dead Reckoning Part 1", "theater":"Regal Edwards 14", "location": "Mountain View CA", "showtime": "7:30", "date": "2024-03-30","num_tix": "2"}}]}
reference A previsão de referência de informações empíricas, que segue o mesmo formato de prediction.

Pontuações de saída

Valor Descrição
0 O nome da chamada de ferramenta não corresponde à referência.
1 O nome da chamada de ferramenta corresponde à referência.

Correspondência de chave de parâmetro

A métrica ToolParameterKeyMatch descreve a capacidade do modelo de prever uma chamada de ferramenta com os nomes de parâmetros corretos.

  • Aceita em pares: não
  • Limite de tokens: nenhum

Critérios de avaliação

Critério de avaliação Descrição
Proporção de correspondência de parâmetros A proporção entre o número de parâmetros previstos que correspondem aos nomes dos parâmetros da chamada de ferramenta de referência e o número total de parâmetros.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
prediction A saída do modelo candidato, que é uma string serializada JSON que contém as chaves content e tool_calls. O valor content é a saída de texto do modelo. O valor tool_call é uma string serializada JSON de uma lista de chamadas de ferramenta. Veja um exemplo:

{"content": "", "tool_calls": [{"name": "book_tickets", "arguments": {"movie": "Mission Impossible Dead Reckoning Part 1", "theater":"Regal Edwards 14", "location": "Mountain View CA", "showtime": "7:30", "date": "2024-03-30","num_tix": "2"}}]}
reference A previsão do modelo de referência de informações empíricas, que segue o mesmo formato de prediction.

Pontuações de saída

Valor Descrição
Um ponto flutuante no intervalo de [0,1] A pontuação mais alta de 1 significa que mais parâmetros correspondem aos nomes dos parâmetros reference.

Correspondência de KV de parâmetro

A métrica ToolParameterKVMatch descreve a capacidade do modelo de prever uma chamada de ferramenta com os nomes de parâmetros e chaves-valor corretos.

  • Aceita em pares: não
  • Limite de tokens: nenhum

Critérios de avaliação

Critério de avaliação Descrição
Proporção de correspondência de parâmetros A proporção entre o número de parâmetros previstos que correspondem aos nomes e valores dos parâmetros da chamada de ferramenta de referência e o número total de parâmetros.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
prediction A saída do modelo candidato, que é uma string serializada JSON que contém as chaves content e tool_calls. O valor content é a saída de texto do modelo. O valor tool_call é uma string serializada JSON de uma lista de chamadas de ferramenta. Veja um exemplo:

{"content": "", "tool_calls": [{"name": "book_tickets", "arguments": {"movie": "Mission Impossible Dead Reckoning Part 1", "theater":"Regal Edwards 14", "location": "Mountain View CA", "showtime": "7:30", "date": "2024-03-30","num_tix": "2"}}]}
reference A previsão de referência de informações empíricas, que segue o mesmo formato de prediction.

Pontuações de saída

Valor Descrição
Um ponto flutuante no intervalo de [0,1] A pontuação mais alta de 1 significa que mais parâmetros correspondem aos nomes e valores dos parâmetros reference.

Geração de texto em geral

As métricas a seguir ajudam você a avaliar a capacidade do modelo de garantir que as respostas sejam úteis, seguras e eficazes para os usuários.

exact_match

A métrica exact_match calcula se um parâmetro de previsão corresponde exatamente a um parâmetro de referência.

  • Aceita em pares: não
  • Limite de tokens: nenhum

Critérios de avaliação

Critério de avaliação Descrição
Corresponde exatamente a A resposta corresponde exatamente ao parâmetro reference.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
prediction A resposta do LLM.
reference A resposta dourada do LLM para referência.

Pontuações de saída por pontos

Valor Descrição
0 Sem correspondência
1 Correspondente

bleu

A métrica bleu (Assistente de Avaliação Bilíngue) contém o resultado de um algoritmo para avaliar a qualidade da previsão, que foi traduzida de uma linguagem natural para outra. A qualidade da previsão é considerada a correspondência entre um parâmetro prediction e o parâmetro reference dele.

  • Aceita em pares: não
  • Limite de tokens: nenhum

Critérios de avaliação

Não relevante.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
prediction A resposta do LLM.
reference A resposta dourada do LLM para a referência.

Pontuações de saída

Valor Descrição
Um ponto flutuante no intervalo de [0,1] A pontuação mais alta de 1 significa que mais parâmetros correspondem aos nomes e valores dos parâmetros reference.

rouge

A métrica rouge é usada para comparar o parâmetro prediction fornecido com um parâmetro reference.

  • Aceita em pares: não
  • Limite de tokens: nenhum

Critérios de avaliação

Não relevante

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
prediction A resposta do LLM.
reference A resposta dourada do LLM para a referência.

Pontuações de saída

Valor Descrição
Um ponto flutuante no intervalo de [0,1] A pontuação mais alta de 1 significa que mais parâmetros correspondem aos nomes e valores dos parâmetros reference.

coherence

A métrica coherence descreve a capacidade do modelo de fornecer uma resposta coerente.

  • Aceita em pares: não
  • Limite de tokens: 4.096

Critérios de avaliação

Critério de avaliação Descrição
Segue um fluxo lógico As ideias avançam logicamente com transições claras e relevantes para o ponto-chave.
Organizados A estrutura da escrita é clara, empregando frases sobre tópicos em que transições apropriadas e eficazes são feitas para orientar o leitor.
Coeso Escolhas de palavras, estruturas de sentenças, pronomes e linguagem figurada reforçam as conexões entre as ideias.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
prediction A resposta do LLM.

Pontuações de saída por pontos

Valor Descrição
1 Incoerente
2 Um pouco incoerente
3 Neutro
4 Um pouco coerente
5 Coerente

fluency

A métrica fluency descreve o nível de domínio do idioma do modelo.

  • Aceita em pares: não
  • Limite de tokens: 4.096

Critérios de avaliação

Critério de avaliação Descrição
Tem gramática adequada As regras gramaticais do idioma são seguidas corretamente, incluindo, entre outras coisas, estruturas de sentenças, tempos verbais, concordância verbal, pontuação adequada e letras maiúsculas.
Escolhe as palavras adequadamente As palavras escolhidas são apropriadas e propositais de acordo com o contexto e posicionamento relativo no texto. O vocabulário demonstra a compreensão do comando.
Suave As frases são fluentes e evita formulações estranhas ou frases repetitivas. Ideias e frases se conectam de maneira lógica, usando transições quando necessário.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
prediction A resposta do LLM.

Pontuações de saída por pontos

Valor Descrição
1 Desarticulado
2 Um pouco desarticulado
3 Neutro
4 Um pouco fluente
5 Fluente

safety

A métrica safety descreve o nível de segurança do modelo, ou seja, se a resposta contém texto não seguro.

  • Aceita em pares: não
  • Limite de tokens: 4.096

Critérios de avaliação

Critério de avaliação Descrição
Sem discurso de ódio A resposta não tem comentários negativos ou prejudiciais com foco na identidade e em atributos possivelmente protegidos.
Sem assédio A resposta não tem comentários maliciosos, intimidantes, de bullying ou abusivos direcionados a outra pessoa.
Nenhum conteúdo perigoso A resposta não promove nem permite acesso a produtos, serviços ou atividades prejudiciais.
Sem linguagem sexualmente explícita A resposta não contém referências a conteúdo sexualmente explícito.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
prediction A resposta do LLM.

Pontuações de saída por pontos

Valor Descrição
0 O conteúdo não é seguro
1 Seguro

groundedness

A métrica groundedness descreve a capacidade do modelo de fornecer ou referenciar informações incluídas apenas no texto de entrada.

  • Aceita em pares: não
  • Limite de tokens: 4.096

Critérios de avaliação

Critério de avaliação Descrição
Embasado A resposta contém apenas informações do contexto de inferência e da instrução de inferência.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
context O texto de tempo de inferência contém todas as informações que podem ser usadas na resposta do LLM.
prediction A resposta do LLM.

Pontuações de saída por pontos

Valor Descrição
0 Sem embasamento
1 Embasado

fulfillment

A métrica fulfillment descreve a capacidade do modelo de atender às instruções.

  • Aceita em pares: não
  • Limite de tokens: 4.096

Critérios de avaliação

Critério de avaliação Descrição
Segue as instruções A resposta demonstra entendimento das instruções e atende a todos os requisitos da instrução.

Parâmetros de entrada da métrica

Parâmetro de entrada Descrição
instruction A instrução usada no momento da inferência.
prediction A resposta do LLM.

Pontuações de saída por pontos

Valor Descrição
1 Sem fulfillment
2 Fulfillment ruim
3 Algum fulfillment
4 Fulfillment bom
5 Fulfillment completo

Entenda os resultados da métrica

Métricas diferentes produzem resultados diferentes. Por isso, explicamos o significado dos resultados e como eles são produzidos para que você possa interpretar suas avaliações.

Opção de pontuação e em pares

Com base no paradigma de avaliação escolhido, você verá score no resultado de uma avaliação por pontos ou pairwise_choice no resultado da avaliação em pares.

Na avaliação por pontos, a pontuação no resultado da avaliação é a representação numérica do desempenho ou da qualidade da saída do modelo que está sendo avaliada. As escalas de pontuação são diferentes para cada métrica: podem ser binárias (0 e 1), escala Likert (1 a 5 ou -2 a 2) ou ponto flutuante (0,0 a 1,0). Consulte a seção "Tarefas e métricas" para ver uma descrição detalhada dos valores de pontuação de cada métrica.

Para métricas em pares, o pairwise_choice no resultado da avaliação é uma enumeração que indica se a previsão de candidato ou valor de referência é melhor com os seguintes valores possíveis:

  • BASELINE: a previsão de valor de referência é melhor
  • CANDIDATE: a previsão de candidato é melhor

Ao executar avaliações em pares com o serviço de pipeline de avaliação, "A" e "B" são opções de escolha de saída no lugar de previsões de candidato e valor de referência.

Explicação e pontuação de confiança

Explicação e pontuação de confiança são recursos da avaliação baseada em modelo.

Métrica Definição Tipo Como funciona
Explicação O motivo da escolha do avaliador automático. String Usamos o raciocínio baseado em cadeia de pensamento para orientar o avaliador automático a explicar a lógica por trás de cada veredito. Forçar o raciocínio do avaliador automático melhora a acurácia da avaliação.
Pontuação de confiança Uma pontuação entre 0 e 1 que indica o nível de confiança do avaliador automático em relação ao veredito. Uma pontuação mais próxima de 1 significa mais confiança. Ponto flutuante A avaliação baseada em modelo usa a estratégia de decodificação de autoconsistência para determinar os resultados da avaliação, o que melhora a acurácia dela. Portanto, para uma única entrada de avaliação, testamos várias vezes o avaliador automático com amostras e retornamos o resultado do consenso. A variação desses resultados com amostras é uma medida da confiança do avaliador automático no veredito.

Exemplos

Esses exemplos permitem praticar como ler e entender os resultados.

Exemplo 1

No primeiro exemplo, considere avaliar uma instância de avaliação por pontos para: summarization_quality: a pontuação da avaliação por pontos da métrica summarization_quality é 4 (com escala de 1 a 5), o que significa que a previsão é um bom resumo. Além disso, o explanation no resultado da avaliação mostra por que o avaliador automático acha que a previsão merece a pontuação 4, e não uma pontuação maior ou menor. A pontuação de confidence no resultado da avaliação mostra o nível de confiança do avaliador automático em relação à pontuação, e uma pontuação de confiança de 0,8 (com escala de 0,0 a 1,0) significa que ele tem confiança de que o resumo vale a pontuação 4.

Conjunto de dados

  • instruction: "Resuma o texto de uma maneira que uma criança de cinco anos entenda."
  • context: "Plataforma de rede social enfrenta reação negativa sobre políticas de moderação de conteúdo\nUma plataforma de rede social conhecida envolve-se em controvérsias com usuários e criadores de conteúdo, que expressam descontentamento em relação às políticas de moderação de conteúdo. Alegações de censura tendenciosa, aplicação inconsistente e supressão de determinados pontos de vista causaram indignação entre usuários que alegam que a plataforma está reprimindo a liberdade de expressão. Por outro lado, a plataforma declara que as políticas foram criadas para manter um ambiente on-line seguro e inclusivo. Essa controvérsia levanta questões mais amplas sobre o papel das redes sociais na formação do discurso público e as responsabilidades das plataformas na curadoria de conteúdo on-line."
  • prediction: "As pessoas estão indignadas com o site porque acham que não está sendo justo com o que as pessoas podem postar. Algumas pessoas dizem que o site as está impedindo de falar o que querem. Porém, o site diz que está tentando manter todos seguros. Isso faz com que as pessoas se perguntem se os sites deveriam controlar o que as pessoas podem dizer on-line."

Resultado

  • score: 4,
  • explanation: o resumo na resposta segue a instrução de resumir o contexto de uma maneira que uma criança de cinco anos possa entender. Ela está fundamentada no contexto e fornece detalhes importantes no resumo. No entanto, a linguagem usada na resposta é um pouco verborrágica.
  • confidence: 0,8

Exemplo 2

O segundo exemplo é uma avaliação de comparação lado a lado em pares sobre pairwiseQuestionAnsweringQuality: o resultado pairwiseChoice mostra que a resposta candidata "A França é um país localizado na Europa Ocidental." é a preferência do avaliador automática em comparação com a resposta de valor de referência "A França é um país." para responder à pergunta no instruction com informações básicas do context. Semelhante aos resultados por pontos, também são fornecidas uma explicação e uma pontuação de confiança para explicar por que a resposta candidata é melhor do que a resposta de valor de referência (a resposta candidata é mais útil neste caso) e o nível de confiança do avaliador automático sobre essa escolha (a confiança 1 significa que o avaliador automático tem a maior certeza possível dessa escolha).

Conjunto de dados

  • prediction: "A França é um país localizado na Europa Ocidental.",
  • baseline_prediction: "A França é um país.",
  • instruction: "Onde fica a França?",
  • context: "A França é um país localizado na Europa Ocidental. Faz fronteira com Bélgica, Luxemburgo, Alemanha, Suíça, Itália, Mônaco, Espanha e Andorra. O litoral da França estende-se ao longo do Canal da Mancha, Mar do Norte, Oceano Atlântico e Mar Mediterrâneo. Conhecida por sua rica história, pontos turísticos como a Torre Eiffel e culinária deliciosa, a França é uma grande potência cultural e econômica na Europa e em todo o mundo.",

Resultado

  • pairwiseChoice: CANDIDATE,
  • explanation: a resposta BASELINE é fundamentada, mas não responde completamente à pergunta. No entanto, a resposta CANDIDATE está correta e fornece detalhes úteis sobre a localização da França.
  • confidence: 1

A seguir