Données d'images Hello: évaluation et analyse des performances du modèle
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Utilisez la console Google Cloud pour vérifier les performances de votre modèle. Analysez les erreurs de test pour améliorer la qualité du modèle de manière itérative en corrigeant les problèmes liés aux données.
Chaque page suppose que vous avez déjà effectué les instructions des pages précédentes du tutoriel.
1. Comprendre les résultats de l'évaluation de modèles AutoML
Une fois l'entraînement terminé, votre modèle est automatiquement évalué en fonction de la répartition des données de test. Les résultats d'évaluation correspondants sont présentés en cliquant sur le nom du modèle depuis la page Registre de modèles ou la page Ensemble de données.
Vous pouvez ensuite accéder aux métriques permettant de mesurer les performances du modèle.
Si vous souhaitez continuer à améliorer les performances du modèle, la première étape consiste souvent à examiner les cas d'erreur et à en examiner les causes potentielles. La page d'évaluation de chaque classe présente des images de test détaillées de la classe donnée, classées en tant que faux négatifs, faux positifs et vrais positifs. La définition de chaque catégorie est disponible dans la section Évaluer, tester et déployer votre modèle.
Pour chaque image de chaque catégorie, vous pouvez vérifier les détails de la prédiction en cliquant sur l'image et en accédant aux résultats d'analyse détaillés. Le panneau Examiner les images similaires s'affiche sur le côté droit de la page. Les échantillons les plus proches de l'ensemble d'entraînement sont présentés avec les distances mesurées dans l'espace des caractéristiques.
Il existe deux types de problèmes liés aux données que vous pouvez surveiller:
Incohérence au niveau des libellés. Si un échantillon visuellement semblable de l'ensemble d'entraînement présente des libellés différents de l'échantillon de test, il est possible que l'un d'eux soit incorrect ou que la différence subtile nécessite plus de données pour que le modèle puisse apprendre, ou que les libellés de classe actuels ne sont tout simplement pas assez précis pour décrire l'échantillon donné.
L'examen d'images similaires peut vous aider à obtenir des informations précises sur le libellé en corrigeant les cas d'erreur ou en excluant l'échantillon problématique de l'ensemble de test. Vous pouvez facilement modifier le libellé de l'image de test ou des images d'entraînement dans le panneau Examiner des images similaires de la même page.
Anomalies Si un échantillon de test est marqué comme étant une anomalie, il est possible que l'ensemble d'entraînement ne comporte aucun échantillon visuellement semblable pour entraîner le modèle.
L'examen d'images similaires dans l'ensemble d'entraînement peut vous aider à identifier ces échantillons et à ajouter des images similaires dans l'ensemble d'entraînement pour améliorer les performances du modèle dans ces cas-là.
Étapes suivantes
Si vous êtes satisfait des performances du modèle, suivez la page suivante de ce tutoriel pour déployer votre modèle AutoML entraîné sur un point de terminaison et envoyer une image au modèle pour la prédiction.
Sinon, si vous apportez des corrections aux données, entraînez un nouveau modèle à l'aide du tutoriel Entraîner un modèle de classification d'images AutoML.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[],[],null,["# Hello image data: Evaluating and analyzing model performance\n\nUse the Google Cloud console to check your model performance. Analyze test\nerrors to iteratively improve model quality by fixing data issues.\n\nThis tutorial has several pages:\n\n1. [Set up your project and environment.](/vertex-ai/docs/tutorials/image-classification-automl)\n\n2. [Create an image classification dataset, and\n import images.](/vertex-ai/docs/tutorials/image-classification-automl/dataset)\n\n3. [Train an AutoML image classification\n model.](/vertex-ai/docs/tutorials/image-classification-automl/training)\n\n4. Evaluate and analyze model performance.\n\n5. [Deploy a model to an endpoint, and send a\n prediction.](/vertex-ai/docs/tutorials/image-classification-automl/deploy-predict)\n\n6. [Clean up your project.](/vertex-ai/docs/tutorials/image-classification-automl/cleanup)\n\nEach page assumes that you have already performed the instructions from the\nprevious pages of the tutorial.\n\n1. Understand AutoML model evaluation results\n---------------------------------------------\n\nAfter training is completed, your model is automatically evaluated against the\ntest data split. The corresponding evaluation results are presented by clicking\nthe model's name from either the **Model Registry** page or the **Dataset**\npage.\n\nFrom there, you can find the metrics to measure the model's performance.\n\nYou can find a more detailed introduction to different evaluation metrics in the\n[Evaluate, test, and deploy your model](https://cloud.google.com/vertex-ai/docs/beginner/beginners-guide/#evaluate_model) section.\n\n2. Analyze test results\n-----------------------\n\nIf you want to continue improving the model performance, the first step is often\nto examine the error cases and investigate the potential causes. The\nevaluation page of each class presents detailed test images of the given\nclass categorized as false negatives, false positives, and true positives. The\ndefinition of each category can be found in the\n[Evaluate, test, and deploy your model](https://cloud.google.com/vertex-ai/docs/beginner/beginners-guide/#evaluate_model) section.\n\nFor each image under every category, you can further check the prediction\ndetails by clicking the image and access the detailed analysis results. You will\nsee the **Review similar images** panel on the right side of the page, where the\nclosest samples from the training set are presented with distances measured in\nthe feature space.\n\nThere are two types of data issues that you might want to pay attention:\n\n1. Label inconsistency. If a visually similar sample from the training set has\n different labels from the test sample, it's possible that one of them is\n incorrect, or that the subtle difference requires more data for the model to\n learn from,\n or that the current class labels are simply not accurate enough to describe\n the given sample.\n Reviewing similar images can help you get the label information accurate by\n either correcting the error cases or excluding the problematic sample from\n the test set. You can conveniently change the label of either the test image\n or training images on the **Review similar images** panel on the same page.\n\n2. Outliers. If a test sample is marked as an outlier, it's possible that there\n are no visually similar samples in the training set to help train the model.\n Reviewing similar images from the training set can help you identify these\n samples and add similar images into the training set to further improve the\n model performance on these cases.\n\nWhat's next\n-----------\n\nIf you're happy with the model performance, follow the\n[next page of this tutorial](/vertex-ai/docs/tutorials/image-classification-automl/deploy-predict) to deploy your trained\nAutoML model to an endpoint and send an image to the model for prediction.\nOtherwise, if you make any corrections on the data, train a new model using the\n[Training an AutoML image classification model](/vertex-ai/docs/tutorials/image-classification-automl/training)\ntutorial."]]