Cette page décrit les métriques d'évaluation que vous pouvez utiliser pour détecter les biais de données, qui peuvent apparaître dans les valeurs de données brutes et de vérité terrain avant même d'entraîner le modèle. Pour les exemples et les notations de cette page, nous utilisons un ensemble de données hypothétique de candidatures à l'université, que nous décrivons en détail dans la Présentation de l'évaluation de modèle pour l'impartialité.
Pour obtenir une description des métriques générées à partir des données de post-entraînement, consultez la section Métriques de biais de modèle.
Présentation
Dans notre exemple d'ensemble de données de candidatures à l'université, nous avons 200 candidats en Californie dans la tranche 1, et 100 candidats en Floride dans la tranche 2, étiquetés comme suit :
Tranche | Refuser | Accepter |
---|---|---|
Californie | 140 | 60 |
Floride | 80 | 20 |
Vous pouvez généralement interpréter le signe pour la plupart des métriques comme suit :
Valeur positive : indique un biais potentiel favorisant la tranche 1 par rapport à la tranche 2.
Valeur nulle : indique l'absence de biais entre la tranche 1 et la tranche 2.
Valeur négative : indique un biais potentiel favorisant la tranche 2 par rapport à la tranche 1.
Nous en prenons note lorsque cela ne s'applique pas à une métrique.
Différence de taille de population
La Différence de taille de population mesure s'il y a plus d'exemples dans la tranche 1 que la tranche 2, normalisé par la population totale des deux tranches :
(population totale de la tranche 1 - population totale de la tranche 2) / (somme des populations de la tranche 1 et 2)
Dans notre exemple d'ensemble de données :
(200 candidats en Californie - 100 candidats en Floride)/ 300 candidats au total = 100/300 = 0,33.
La valeur positive de la Différence de taille de population indique un nombre disproportionné de candidats avec plus de candidats en Californie que de candidats en Floride. La valeur positive peut indiquer ou non un biais en soi, mais lorsqu'un modèle est entraîné sur ces données, il peut apprendre à être plus performant pour les candidats en Californie.
Différence de proportions positives dans les étiquettes réelles (DPPTL)
La différence de proportions positives dans les étiquettes réelles mesure si un ensemble de données comporte un nombre disproportionné d'étiquettes de vérité terrain positives pour une tranche par rapport à l'autre. Cette métrique calcule la différence de proportions positives dans les étiquettes réelles entre la tranche 1 et la tranche 2, où les proportions positives dans les étiquettes réelles pour une tranche sont (Résultats positifs étiquetés / Taille de population totale). Cette métrique est également appelée Déséquilibre des étiquettes :
(Résultats positifs étiquetés pour la tranche 1/Taille de population totale de la tranche 1) - (Résultats positifs étiquetés pour la tranche 2/Taille de population totale de la tranche 2)
Dans notre exemple d'ensemble de données :
(60 candidats en Californie acceptés/200 candidats en Californie) - (20 candidats en Floride acceptés/100 candidats en Floride) = 60/200 - 20/100 = 0,1.
La valeur positive de la DPPTL indique que l'ensemble de données présente un nombre disproportionné de résultats positifs avec plus de résultats positifs pour les candidats en Californie comparé aux candidats en Floride. La valeur positive peut indiquer ou non un biais en soi, mais lorsqu'un modèle est entraîné sur ces données, il peut apprendre à prédire de façon disproportionnée plus de résultats positifs pour les candidats en Californie.
Étapes suivantes
Découvrez les métriques de biais de modèle compatibles avec Vertex AI.
Consultez la documentation de référence sur les composants du pipeline d'évaluation de modèle.