Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Lorsque vous examinez les explications fournies par le service, vous devez garder à l'esprit les limites générales présentées sur cette page. Pour une présentation plus détaillée, reportez-vous au livre blanc sur AI Explanations.
Signification et portée des attributions de caractéristiques
Tenez compte des points suivants lorsque vous analysez les attributions de caractéristiques fournies par Vertex Explainable AI :
Chaque attribution indique uniquement dans quelle mesure la caractéristique a contribué à la prédiction pour cet exemple particulier. Une attribution particulière peut ne pas refléter le comportement global du modèle. Pour comprendre le comportement approximatif du modèle sur un ensemble de données, agrégez les attributions sur cet ensemble.
Les attributions dépendent entièrement du modèle et des données utilisées pour l'entraîner. Elles se bornent à faire apparaître les motifs que le modèle a trouvés dans les données sans pouvoir détecter de relations fondamentales au sein des données. La présence ou l'absence d'une attribution prononcée à une certaine caractéristique ne signifie pas qu'il existe ou non une relation entre cette caractéristique et la cible. L'attribution indique simplement que le modèle utilise ou non la caractéristique pour effectuer ses prédictions.
Les attributions ne peuvent pas à elles seules indiquer si votre modèle est équitable, dépourvu de biais ou de bonne qualité. En plus des attributions, vous devez évaluer avec soin vos données d'entraînement et vos métriques d'évaluation.
Améliorer les attributions de caractéristiques
Lorsque vous travaillez avec des modèles personnalisés, vous pouvez configurer des paramètres spécifiques pour améliorer les explications. Cette section ne s'applique pas aux modèles AutoML.
Les facteurs qui influent le plus sur les attributions de caractéristiques sont les suivants :
Les méthodes d'attribution fonctionnent par approximation des valeurs de Shapley. Vous pouvez augmenter la précision de l'approximation de deux manières :
En augmentant le nombre de pas d'intégration pour les gradients intégrés ou les méthodes XRAI.
En augmentant le nombre de pas d'intégration pour la méthode par échantillonnage des valeurs de Shapley.
Cela pourrait radicalement changer les attributions.
Les attributions n'indiquent que l'effet de la caractéristique sur la variation de la valeur de prédiction par rapport à la valeur de référence. Veillez à choisir une référence pertinente en fonction de la question que vous posez au modèle.
Les valeurs d'attribution et leur interprétation peuvent changer de manière significative lorsque vous changez de référence.
Pour les gradients intégrés et XRAI, l'utilisation de deux références peut améliorer les résultats. Par exemple, vous pouvez spécifier des références qui représentent une image entièrement noire et une image entièrement blanche.
Les deux méthodes d'attribution compatibles avec les données d'image sont les gradients intégrés et XRAI.
Les gradients intégrés consistent en une méthode d'attribution basée sur les pixels qui met en évidence les zones importantes de l'image, quel que soit le contraste. Il s'agit donc d'une méthode idéale pour le traitement des images non naturelles telles que les images par rayons X. Cependant, le résultat précis peut rendre difficile l'évaluation de l'importance relative des zones. En traçant des contours, le résultat par défaut met en évidence les zones de l'image ayant des attributions positives élevées, mais ces contours ne sont pas mis en rang et ils peuvent s'étendre sur plusieurs objets.
XRAI fonctionne mieux sur des images naturelles à contraste élevé contenant plusieurs objets.
Étant donné que cette méthode génère des attributions basées sur les régions, elle produit une carte de densité plus fluide et plus lisible des régions les plus saillantes pour une classification d'images donnée.
XRAI ne fonctionne pas de manière optimale pour les types d'images d'entrée suivants:
Images à faible contraste constituées d'une seule teinte, comme les images par rayons X
Images très hautes ou très larges, comme les images panoramiques
Images de volume important, qui peuvent ralentir l'exécution globale
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[],[],null,["# Limitations of Vertex Explainable AI\n\nAs you consider the explanations returned from the service, you should keep in\nmind these high-level limitations. For an in-depth explanation, refer to the\n[AI Explanations Whitepaper](https://storage.googleapis.com/cloud-ai-whitepapers/AI%20Explainability%20Whitepaper.pdf).\n\nMeaning and scope of feature attributions\n-----------------------------------------\n\nConsider the following when analyzing feature attributions provided by\nVertex Explainable AI:\n\n- Each attribution only shows how much the feature affected the prediction for that particular example. A single attribution might not reflect the overall behavior of the model. To understand approximate model behavior on an entire dataset, aggregate attributions over the entire dataset.\n- The attributions depend entirely on the model and data used to train the model. They can only reveal the patterns the model found in the data, and can't detect any fundamental relationships in the data. The presence or absence of a strong attribution to a certain feature doesn't mean there is or is not a relationship between that feature and the target. The attribution merely shows that the model is or is not using the feature in its predictions.\n- Attributions alone can't tell if your model is fair, unbiased, or of sound quality. Carefully evaluate your training data and evaluation metrics in addition to the attributions.\n\nImproving feature attributions\n------------------------------\n\nWhen you are working with custom-trained models, you can configure specific\nparameters to improve your explanations. This section does not apply\nto AutoML models.\n\nThe following factors have the highest impact on feature attributions:\n\n- The attribution methods approximate the Shapley value. You can increase the\n precision of the approximation by:\n\n - Increasing the number of integral steps for the integrated gradients or XRAI methods.\n - Increasing the number of integral paths for the sampled Shapley method.\n\n As a result, the attributions could change dramatically.\n- The attributions only express how much the feature affected the change in\n prediction value, relative to the baseline value. Be sure to choose a\n meaningful baseline, relevant to the question you're asking of the model.\n Attribution values and their interpretation might change significantly as you\n switch baselines.\n\n- For integrated gradients and XRAI, using two baselines can improve your\n results. For example, you can specify baselines that represent an entirely\n black image and an entirely white image.\n\nRead more about [improving feature\nattributions](/vertex-ai/docs/explainable-ai/improving-explanations).\n\nLimitations for image data\n--------------------------\n\nThe two attribution methods that support image data are integrated gradients\nand XRAI.\n\nIntegrated gradients is a pixel-based attribution method that highlights\nimportant areas in the image regardless of contrast, making this method ideal\nfor non-natural images such as X-rays. However, the granular output can make it\ndifficult to assess the relative importance of areas. The default output\nhighlights areas in the image that have high positive attributions by drawing\noutlines, but these outlines are not ranked and may span across objects.\n\nXRAI works best on natural, higher-contrast images containing multiple objects.\nBecause this method produces region-based attributions, it produces a smoother,\nmore human-readable heatmap of regions that are most salient for a given\nimage classification.\n\nXRAI does *not* work well on the following types of image input:\n\n- Low-contrast images that are all one shade, such as X-rays.\n- Very tall or very wide images, such as panoramas.\n- Very large images, which may slow down overall runtime."]]