Limites de Vertex Explainable AI

Restez organisé à l'aide des collections Enregistrez et classez les contenus selon vos préférences.

Lorsque vous examinez les explications fournies par le service, vous devez garder à l'esprit les limites générales présentées sur cette page. Pour une présentation plus détaillée, reportez-vous au livre blanc sur AI Explanations.

Signification et portée des attributions de caractéristiques

Tenez compte des points suivants lorsque vous analysez les attributions de caractéristiques fournies par Vertex Explainable AI :

  • Chaque attribution indique uniquement dans quelle mesure la caractéristique a contribué à la prédiction pour cet exemple particulier. Une attribution particulière peut ne pas refléter le comportement global du modèle. Pour comprendre le comportement approximatif du modèle sur un ensemble de données, agrégez les attributions sur cet ensemble.
  • Les attributions dépendent entièrement du modèle et des données utilisées pour l'entraîner. Elles se bornent à faire apparaître les motifs que le modèle a trouvés dans les données sans pouvoir détecter de relations fondamentales au sein des données. La présence ou l'absence d'une attribution prononcée à une certaine caractéristique ne signifie pas qu'il existe ou non une relation entre cette caractéristique et la cible. L'attribution indique simplement que le modèle utilise ou non la caractéristique pour effectuer ses prédictions.
  • Les attributions ne peuvent pas à elles seules indiquer si votre modèle est équitable, dépourvu de biais ou de bonne qualité. En plus des attributions, vous devez évaluer avec soin vos données d'entraînement et vos métriques d'évaluation.

Améliorer les attributions de caractéristiques

Lorsque vous travaillez avec des modèles personnalisés, vous pouvez configurer des paramètres spécifiques pour améliorer les explications. Cette section ne s'applique pas aux modèles AutoML.

Les facteurs qui influent le plus sur les attributions de caractéristiques sont les suivants :

  • Les méthodes d'attribution fonctionnent par approximation des valeurs de Shapley. Vous pouvez augmenter la précision de l'approximation de deux manières :

    • En augmentant le nombre de pas d'intégration pour les gradients intégrés ou les méthodes XRAI.
    • En augmentant le nombre de pas d'intégration pour la méthode par échantillonnage des valeurs de Shapley.

    Cela pourrait radicalement changer les attributions.

  • Les attributions n'indiquent que l'effet de la caractéristique sur la variation de la valeur de prédiction par rapport à la valeur de référence. Veillez à choisir une référence pertinente en fonction de la question que vous posez au modèle. Les valeurs d'attribution et leur interprétation peuvent changer de manière significative lorsque vous changez de référence.

  • Pour les gradients intégrés et XRAI, l'utilisation de deux références peut améliorer les résultats. Par exemple, vous pouvez spécifier des références qui représentent une image entièrement noire et une image entièrement blanche.

En savoir plus sur l'amélioration de l'attribution des caractéristiques.

Limites pour les données d'image

Les deux méthodes d'attribution compatibles avec les données d'image sont les gradients intégrés et XRAI.

Les gradients intégrés consistent en une méthode d'attribution basée sur les pixels qui met en évidence les zones importantes de l'image, quel que soit le contraste. Il s'agit donc d'une méthode idéale pour le traitement des images non naturelles telles que les images par rayons X. Cependant, le résultat précis peut rendre difficile l'évaluation de l'importance relative des zones. En traçant des contours, le résultat par défaut met en évidence les zones de l'image ayant des attributions positives élevées, mais ces contours ne sont pas mis en rang et ils peuvent s'étendre sur plusieurs objets.

XRAI fonctionne mieux sur des images naturelles à contraste élevé contenant plusieurs objets. Étant donné que cette méthode génère des attributions basées sur les régions, elle produit une carte de densité plus fluide et plus lisible des régions les plus saillantes pour une classification d'images donnée.

Actuellement, XRAI ne fonctionne pas de manière optimale pour les types d'images d'entrée suivants :

  • Images à faible contraste constituées d'une seule teinte, comme les images par rayons X
  • Images très hautes ou très larges, comme les images panoramiques
  • Images de volume important, qui peuvent ralentir l'exécution globale