Questa pagina descrive le metriche di valutazione del modello che puoi utilizzare per rilevare il bias del modello, che può comparire nell'output di previsione del modello dopo l'addestramento. Per gli esempi e la notazione in questa pagina, utilizziamo un set di dati ipotetico di richieste di ammissione al college descritto in dettaglio in Introduzione alla valutazione del modello per l'equità.
Per le descrizioni delle metriche generate dai dati di preaddestramento, consulta Metriche sul bias dei dati.
Panoramica
Nel nostro esempio di set di dati delle domande di ammissione al college, abbiamo 200 richiedenti provenienti dalla California nel primo segmento e 100 dalla Florida nel secondo. Dopo aver addestrato il modello, abbiamo le seguenti matrici di confusione:
Candidati in California | Accettazioni (prevista) | Rifiuti (previsti) |
---|---|---|
Accettazioni (dati di fatto) | 50 (vero positivo) | 10 (falso negativo) |
Rifiuti (dati di fatto) | 20 (falso positivo) | 120 (vero negativo) |
Candidati in Florida | Accettazioni (prevista) | Rifiuti (previsti) |
---|---|---|
Accettazioni (dati di fatto) | 20 (vero positivo) | 0 (falso negativo) |
Rifiuti (dati di fatto) | 30 (falso positivo) | 50 (vero negativo) |
In genere, puoi interpretare il segno per la maggior parte delle metriche come segue:
Valore positivo: indica un potenziale bias che favorisce la frazione 1 rispetto alla frazione 2.
Valore zero: indica che non esiste alcuna differenza tra il livello 1 e il livello 2.
Valore negativo: indica un potenziale bias che favorisce il segmento 2 rispetto al segmento 1.
Applichiamo una nota quando questo non si applica a una metrica.
Differenza di accuratezza
La differenza di precisione misura la differenza di precisione tra il primo e il secondo segmento:
((Veri positivi per il segmento 1 + Veri negativi per il segmento 1)/Numero totale di istanze per il segmento 1) - ((Veri positivi per il segmento 2 + Veri negativi per il segmento 2)/Numero totale di istanze per il segmento 2)
Nel nostro set di dati di esempio:
((50 ammissioni in California previste correttamente + 120 rifiuti in California previsti correttamente)/ 200 richiedenti in California) - ((20 ammissioni in Florida previste correttamente + 50 rifiuti in Florida previsti correttamente)/ 100 richiedenti in Florida) = 170/200 - 70/100 = 0,15
Il valore positivo della differenza di accuratezza indica che il modello è più accurato per i richiedenti in California rispetto a quelli in Florida. Ciò potrebbe indicare un potenziale bias a favore dei candidati in California.
Differenza nelle proporzioni positive nelle etichette previste (DPPPL)
La differenza nelle proporzioni positive nelle etichette previste (DPPPL) misura se il modello ha la tendenza a fare previsioni sproporzionatamente più positive per un segmento rispetto all'altro. DPPPL calcola la differenza nelle proporzioni positive nelle etichette previste, dove le proporzioni positive nelle etichette previste sono (risultati positivi previsti/Numero totale di istanze) per uno slice:
((Veri positivi per il segmento 1 + Falsi positivi per il segmento 1)/Numero totale di istanze per il segmento 1) - ((Veri positivi per il segmento 2 + Falsi positivi per il segmento 2)/Numero totale di istanze per il segmento 2)
Per il nostro set di dati di esempio:
((50 ammissioni in California previste correttamente + 20 ammissioni in California previste erroneamente)/ 200 richiedenti in California) - ((20 ammissioni in Florida previste correttamente + 30 ammissioni in Florida previste erroneamente)/ 100 richiedenti in Florida) = 70/200 - 50/100 = -0,15
Il valore negativo del DPPPL indica che il modello accetta in modo sproporzionato più richiedenti della Florida rispetto a quelli della California.
Differenza di richiamo
La differenza di recupero misura la differenza di recupero tra il segmento 1 e il segmento 2, esaminando solo i risultati positivi etichettati. La differenza di richiamo può essere chiamata anche pari opportunità.
(Veri positivi per il segmento 1/(Veri positivi per il segmento 1 + Falsi negativi per il segmento 1)) - (Veri positivi per il segmento 2/(Veri positivi per il segmento 2 + Falsi negativi per il segmento 2))
Nel nostro set di dati di esempio:
(50 accettazioni in California previste correttamente/(50 accettazioni in California previste correttamente + 10 rifiuti in California previsti erroneamente)) - (20 accettazioni in Florida previste correttamente/(20 accettazioni in Florida previste correttamente + 0 rifiuti in Florida previsti erroneamente)) = 50/60 - 20/20 = -0,17
Il valore negativo indica che il modello è più efficace nel ricordare i candidati della Florida rispetto a quelli della California. In altre parole, il modello tende a essere più preciso nelle decisioni di accettazione per i candidati della Florida rispetto a quelli della California.
Differenza di specificità
La differenza di specificità misura la differenza di specificità, nota anche come tasso di veri negativi, tra il segmento 1 e il segmento 2. Possiamo considerarla come la differenza di richiamo, ma per i risultati negativi etichettati:
(Veri negativi per il segmento 1/(Veri negativi per il segmento 1 + Falsi positivi per il segmento 1)) - (Veri negativi per il segmento 2/(Veri negativi per il segmento 2 + Falsi positivi per il segmento 2))
Nel nostro set di dati di esempio:
(120 rifiuti in California previsti correttamente/(120 rifiuti in California previsti correttamente + 20 accettazioni in California previste in modo errato)) - (50 rifiuti in Florida previsti correttamente/(50 rifiuti in Florida previsti correttamente + 30 accettazioni in Florida previste in modo errato)) = 120/140- 50/80 = 0,23
Il valore positivo indica che, per i rifiuti delle domande, il modello ha un recupero migliore per i richiedenti in California rispetto a quelli in Florida. In altre parole, il modello tende ad essere più corretto nelle decisioni di rifiuto per i candidati della California rispetto a quelli della Florida.
Differenza nel rapporto tra i tipi di errori
La differenza nel rapporto tra i tipi di errore misura la differenza nella distribuzione degli errori (falsi negativi e falsi positivi) tra il segmento 1 e il segmento 2. Il Rapporto del tipo di errore viene calcolato come (falsi negativi (errore di tipo I)/falsi positivi (errore di tipo II)). La differenza nel rapporto tra i tipi di errori può essere chiamata anche uguaglianza di trattamento.
(falsi negativi per il livello 1/falsi positivi per il livello 1) - (falsi negativi per il livello 2/falsi positivi per il livello 2)
Nel nostro set di dati di esempio:
(10 rifiuti in California previsti erroneamente/20 accettazioni in California previste erroneamente) - (0 rifiuti in Florida previsti erroneamente/30 accettazioni in Florida previste erroneamente) = (10/20 - 0/30) = 0,5
Sebbene il modello commetta 30 errori sia per i richiedenti della California sia per quelli della Florida, il valore positivo per la differenza nel rapporto tra i tipi di errore indica che il modello tende a sovrastimare i risultati positivi (falso positivo più elevato) e quindi a sottostimare i risultati negativi (errori di falso negativo più bassi) per i richiedenti della California rispetto a quelli della Florida.
Il segno della differenza nel rapporto tra i tipi di errori può essere generalmente interpretato come segue:
Valore positivo: indica che il modello genera in modo sproporzionato più errori di tipo falso positivo rispetto agli errori di tipo falso negativo per il segmento 1.
Valore zero: indica che il modello genera la stessa quantità di errori di falso positivo per entrambi i segmenti.
Valore negativo: indica che il modello genera in modo sproporzionato più errori di tipo falso positivo rispetto agli errori di tipo falso negativo per il secondo livello.
Il segno di questa metrica non indica necessariamente un bias nel modello, perché la dannosità dei falsi negativi o dei falsi positivi dipende dall'applicazione del modello.
Passaggi successivi
Leggi il riferimento al componente della pipeline di valutazione del modello.
Scopri di più sulle metriche di equità in A Survey on Bias and Fairness in Machine Learning.