- Ressource : ModelEvaluation
- ClassificationEvaluationMetrics
- ConfidenceMetricsEntry
- ConfusionMatrix
- Ligne
- TranslationEvaluationMetrics
- Méthodes
Ressource : ModelEvaluation
Résultats d'évaluation d'un modèle.
Représentation JSON | |
---|---|
{ "name": string, "annotationSpecId": string, "displayName": string, "createTime": string, "evaluatedExampleCount": number, // Union field |
Champs | ||
---|---|---|
name |
Uniquement dans les résultats. Nom de la ressource de l'évaluation du modèle. Format :
|
|
annotationSpecId |
Uniquement dans les résultats. ID de la spécification d'annotation à laquelle l'évaluation du modèle s'applique. L'ID est vide pour l'évaluation globale du modèle. REMARQUE : Il n'existe actuellement aucun moyen d'obtenir le nom à afficher (displayName) de la spécification d'annotation à partir de son ID. Pour voir les noms à afficher, consultez les évaluations du modèle dans l'interface utilisateur. |
|
displayName |
Uniquement dans les résultats. La valeur de |
|
createTime |
Uniquement dans les résultats. Horodatage lors de la création de l'évaluation de ce modèle. Un horodatage au format RFC3339 UTC "Zulu", précis à la nanoseconde près. Exemple : |
|
evaluatedExampleCount |
Uniquement dans les résultats. Le nombre d'exemples utilisés pour l'évaluation du modèle. |
|
Champ d'union metrics . Uniquement dans les résultats. Métriques d'évaluation spécifiques au type de problème. metrics ne peut avoir que l'une des valeurs suivantes : |
||
classificationEvaluationMetrics |
Métriques d'évaluation du modèle pour la classification des images, du texte et des vidéos. |
|
translationEvaluationMetrics |
Métriques d'évaluation du modèle pour la traduction. |
ClassificationEvaluationMetrics
Métriques d'évaluation du modèle pour les problèmes de classification. Remarque : Pour la classification des vidéos, ces métriques décrivent uniquement la qualité des prédictions de type "segment_classification".
Représentation JSON | |
---|---|
{ "auPrc": number, "baseAuPrc": number, "confidenceMetricsEntry": [ { object( |
Champs | |
---|---|
auPrc |
Uniquement dans les résultats. Métrique "Area under Precision/Recall Curve" (Aire sous la courbe de précision/rappel). |
baseAuPrc |
Uniquement dans les résultats. Métrique "Area under Precision/Recall Curve" (Aire sous la courbe de précision/rappel) basée sur les antécédents. |
confidenceMetricsEntry[] |
Uniquement dans les résultats. Métriques pour chaque seuil de confiance de 0,05, 0,10, …, 0,95, 0,96, 0,97, 0,98, 0,99. La courbe de précision/rappel en est dérivée. |
confusionMatrix |
Uniquement dans les résultats. Matrice de confusion de l'évaluation. Défini uniquement pour les problèmes de classification MULTICLASS où le nombre de libellés n'est pas supérieur à 10. Défini uniquement pour l'évaluation au niveau du modèle, et non pour l'évaluation par libellé. |
annotationSpecId[] |
Uniquement dans les résultats. Les identifiants de spécifications d'annotation utilisés pour cette évaluation. |
ConfidenceMetricsEntry
Métriques pour un seul seuil de confiance.
Représentation JSON | |
---|---|
{ "confidenceThreshold": number, "recall": number, "precision": number, "f1Score": number, "recallAt1": number, "precisionAt1": number, "f1ScoreAt1": number } |
Champs | |
---|---|
confidenceThreshold |
Uniquement dans les résultats. Valeur du seuil de confiance utilisé pour calculer les métriques. |
recall |
Uniquement dans les résultats. Rappel sous le seuil de confiance fixé. |
precision |
Uniquement dans les résultats. Précision sous le seuil de confiance fixé. |
f1Score |
Uniquement dans les résultats. La moyenne harmonique du rappel et de la précision. |
recallAt1 |
Uniquement dans les résultats. Le rappel lorsque vous ne tenez compte que du libellé dont le score de prédiction est le plus élevé et n'est pas inférieur au seuil de confiance de chaque exemple. |
precisionAt1 |
Uniquement dans les résultats. La précision lorsque vous ne tenez compte que de du libellé dont le score de prédiction est le plus élevé et n'est pas inférieur au seuil de confiance de chaque exemple. |
f1ScoreAt1 |
Uniquement dans les résultats. La moyenne harmonique de |
ConfusionMatrix
Matrice de confusion du modèle exécutant la classification.
Représentation JSON | |
---|---|
{
"annotationSpecId": [
string
],
"row": [
{
object( |
Champs | |
---|---|
annotationSpecId[] |
Uniquement dans les résultats. Les ID des spécifications d'annotation utilisées dans la matrice de confusion. |
row[] |
Uniquement dans les résultats. Lignes dans la matrice de confusion. Le nombre de lignes est égal à la taille de |
Ligne
Uniquement dans les résultats. Une ligne dans la matrice de confusion.
Représentation JSON | |
---|---|
{ "exampleCount": [ number ] } |
Champs | |
---|---|
exampleCount[] |
Uniquement dans les résultats. Valeur de la cellule spécifiée dans la matrice de confusion. Le nombre de valeurs sur chaque ligne est égal à la taille de "annotation_spec_id". |
TranslationEvaluationMetrics
Métriques d'évaluation pour l'ensemble de données.
Représentation JSON | |
---|---|
{ "bleuScore": number, "baseBleuScore": number } |
Champs | |
---|---|
bleuScore |
Uniquement dans les résultats. Score BLEU. |
baseBleuScore |
Uniquement dans les résultats. Score BLEU pour le modèle de base. |
Méthodes |
|
---|---|
|
Permet d'obtenir une évaluation du modèle. |
|
Répertorie les évaluations de modèles. |