- Recurso: ModelEvaluation
- ClassificationEvaluationMetrics
- ConfidenceMetricsEntry
- ConfusionMatrix
- Linha
- Métodos
Recurso: ModelEvaluation
Resultados da avaliação de um modelo.
Representação JSON | |
---|---|
{
"name": string,
"annotationSpecId": string,
"displayName": string,
"createTime": string,
"evaluatedExampleCount": number,
"classificationEvaluationMetrics": {
object( |
Campos | |
---|---|
name |
Apenas saída. Nome do recurso da avaliação do modelo. Formato:
|
annotationSpecId |
Apenas saída. O código da especificação de anotação a que a avaliação de modelo se aplica. O código está vazio para a avaliação geral do modelo. OBSERVAÇÃO: atualmente, não há como receber displayName da especificação de anotação do código. Para ver display_names, revise as avaliações do modelo na IU. |
displayName |
Apenas saída. O valor de |
createTime |
Apenas saída. Carimbo de data/hora quando essa avaliação de modelo foi criada. Um carimbo de data/hora no formato UTC "Zulu" RFC3339 é medido com precisão em nanossegundos. Exemplo: |
evaluatedExampleCount |
Apenas saída. O número de exemplos usados para avaliação do modelo. As informações do horário da criação do modelo são comparadas com as anotações previstas criadas pelo modelo. Para ModelEvaluation geral (ou seja, com annotationSpecId não definido), esse é o número total de todos os exemplos usados para avaliação. Caso contrário, essa é a contagem de exemplos que, de acordo com as informações, foram anotados pelo |
classificationEvaluationMetrics |
Métricas de avaliação para modelos de classificação. |
ClassificationEvaluationMetrics
Métricas de avaliação de modelo para problemas de classificação. Elas descrevem apenas a qualidade das predições em que o tipo é definido como segment_classification
. Para informações sobre o tipo de predição, consulte BatchPredictRequest.params
.
Representação JSON | |
---|---|
{ "auPrc": number, "baseAuPrc": number, "confidenceMetricsEntry": [ { object( |
Campos | |
---|---|
auPrc |
Apenas saída. A área sob a métrica de curva de recall de precisão. |
baseAuPrc |
Apenas saída. A área sob a métrica de curva de recall de precisão com base em anteriores. |
confidenceMetricsEntry[] |
Apenas saída. Métricas para cada limite de confiança de 0,05, 0,10, ..., 0,95, 0,96, 0,97, 0,98, 0,99. A curva de recuperação de precisão é derivada deles. |
confusionMatrix |
Apenas saída. Matriz de confusão da avaliação. Definida apenas para problemas de classificação MULTICLASS em que o número de rótulos não seja maior que dez. Definida apenas para avaliação no nível do modelo, e não para avaliação por rótulo. |
annotationSpecId[] |
Apenas saída. Os códigos de especificação da anotação usados nessa avaliação. |
ConfidenceMetricsEntry
Métricas para um único limite de confiança.
Representação JSON | |
---|---|
{ "confidenceThreshold": number, "recall": number, "precision": number, "f1Score": number, "recallAt1": number, "precisionAt1": number, "f1ScoreAt1": number } |
Campos | |
---|---|
confidenceThreshold |
Apenas saída. O valor do limite de confiança usado para calcular as métricas. |
recall |
Apenas saída. Recall dado o limite de confiança indicado. |
precision |
Apenas saída. Precisão sob o limite de confiança indicado. |
f1Score |
Apenas saída. A média harmônica de recall e precisão. |
recallAt1 |
Apenas saída. O recall quando se considera apenas o rótulo que tem a maior pontuação de previsão e não abaixo do limite de confiança de cada exemplo. |
precisionAt1 |
Apenas saída. A precisão quando se considera apenas o rótulo que tem o maior valor de predição e não abaixo do limite de confiança de cada exemplo. |
f1ScoreAt1 |
Apenas saída. A média harmônica de |
ConfusionMatrix
Matriz de confusão do modelo que executa a classificação.
Representação JSON | |
---|---|
{
"annotationSpecId": [
string
],
"row": [
{
object( |
Campos | |
---|---|
annotationSpecId[] |
Apenas saída. Códigos das especificações de anotação usadas na matriz de confusão. |
row[] |
Apenas saída. Linhas na matriz de confusão. O número de linhas é igual ao tamanho de |
Linha
Apenas saída. Uma linha na matriz de confusão.
Representação JSON | |
---|---|
{ "exampleCount": [ number ] } |
Campos | |
---|---|
exampleCount[] |
Apenas saída. Valor da célula específica na matriz de confusão. O número de valores de cada linha (isto é, o tamanho da linha) é igual ao comprimento do campo annotationSpecId. |
Métodos |
|
---|---|
|
Recebe uma avaliação de modelo. |
|
Lista avaliações de modelo. |