La governance del modello e del rischio è il processo mediante il quale i modelli vengono considerati sufficienti da tutti i gruppi di stakeholder. Il processo potrebbe includere, tra gli altri argomenti, la convalida di nuovi modelli, il monitoraggio, gli standard di sicurezza e conformità, i processi di assistenza, la copertura dei rischi, i manuali operativi e le guide dell'utente.
In qualità di proprietario di un framework di rischio, i seguenti artefatti forniscono risorse utili per integrare AML AI nel panorama generale della gestione dei rischi. AML AI fornisce documentazione pertinente alla governance del modello e del rischio, nonché a vari output di ottimizzazione, addestramento e valutazione del tuo modello AML AI.
Documentazione sulla governance del modello e del rischio
Il seguente set di documentazione concettuale, disponibile su richiesta per i clienti di AML AI, funge da artefatti di governance nella gestione del rischio complessivo, nel modello IA/ML e nel framework di governance del rischio:
- Architettura del modello: Descrive la particolare architettura del modello utilizzata per AML AI per calcolare i punteggi di rischio.
- Metodologia di etichettatura: Descrive gli approcci utilizzati per definire esempi di addestramento etichettati per l'ottimizzazione, l'addestramento e il backtesting dei modelli di AI AML.
- Metodologia di addestramento dei modelli: Descrive l'approccio di addestramento e convalida per i modelli AML AI.
- Metodologia di ottimizzazione dei modelli: Descrive il processo mediante il quale AML AI ottimizza gli iperparametri dei modelli in base ai tuoi dati.
- Metodologia di valutazione dei modelli: Descrive le metriche utilizzate per la valutazione e il backtest del modello.
- Panoramica delle famiglie di funzionalità: Descrive le famiglie di funzionalità supportate e come vengono utilizzate per la spiegabilità (e altrove) in AML AI.
- Schema della tipologia di rischio: Descrive come AML AI supporta le tipologie di rischio e la metodologia che utilizza per dimostrare la copertura.
- Norme relative alla stabilità e all'assistenza delle versioni del motore: Descrivono cosa cambia tra le versioni del motore AML AI e per quanto tempo ogni versione del motore è supportata per operazioni diverse.
Output del modello come artefatti di governance
I seguenti artefatti vengono generati come output da normali operazioni AML AI:
- Qualità del modello
- L'output della configurazione del motore include il richiamo previsto (prima e dopo l'ottimizzazione) acquisito nei metadati della configurazione del motore.
- I risultati del backtest ti consentono di misurare le prestazioni del modello addestrato su una serie di esempi non inclusi nell'addestramento.
- Qualità dei dati
- L'output della mancanza indica la quota di valori mancanti per famiglia di caratteristiche nei tuoi set di dati utilizzata per l'ottimizzazione, l'addestramento, il backtesting e la previsione. Modifiche significative possono indicare un'incoerenza nei dati sottostanti che può influire sulle prestazioni del modello.
- Gli errori di convalida dei dati impediscono il completamento delle operazioni di AML AI, quindi per produrre correttamente un modello e le previsioni, devi risolvere questi errori.
- Risultati della previsione
- I punteggi di rischio variano da 0 a 1 e, in questo intervallo, un punteggio più alto indica un rischio maggiore per la festa per il mese previsto. I punteggi di rischio non devono essere interpretati direttamente come una probabilità di attività di riciclaggio di denaro o di successo di una possibile indagine.
- L'output di Explainable AI aumenta i punteggi di rischio elevati con punteggi di attribuzione che indicano il contributo di ogni famiglia di funzionalità al punteggio di rischio.
- Le operazioni a lunga esecuzione (LRO) consentono di monitorare tutti i processi di AML AI utilizzati nella preparazione e nelle previsioni dei modelli. Per maggiori informazioni, consulta Gestire le operazioni a lunga esecuzione.