Modell- und Risiko-Governance ist der Prozess, bei dem festgestellt wird, dass die Modelle von allen Stakeholdergruppen geeignet sind. Ihr Prozess kann unter anderem neue Modellvalidierung, Modellmonitoring, Sicherheits- und Compliancestandards, Supportprozesse, Risikoabdeckung, Betriebshandbücher und Nutzerhandbücher umfassen.
Als Inhaber eines Risiko-Frameworks bieten Ihnen die folgenden Artefakte nützliche Ressourcen für die Integration von AML AI in Ihre allgemeine Risikomanagementlandschaft. AML AI ergänzt die Dokumentation, die für die Modell- und Risiko-Governance relevant ist, sowie verschiedene Ausgaben aus der Abstimmung, dem Training und der Bewertung Ihres AML AI-Modells.
Dokumentation zu Modell- und Risiko-Governance
Die folgende Dokumentation des Konzepts, die AML AI-Kunden auf Anfrage zur Verfügung steht, dient als Governance-Artefakte in Ihrem Gesamtrisikomanagement und dem KI/ML-Modell und dem Risiko-Governance-Framework:
- Modellarchitektur: Beschreibt die jeweilige Modellarchitektur, die für AML AI zur Berechnung von Risikobewertungen verwendet wird.
- Labeling-Methode: Hier werden die Ansätze beschrieben, die zum Definieren von Beispielen für beschriftete Trainings zum Optimieren, Trainieren und Backtesting von AML AI-Modellen verwendet werden.
- Modelltrainingsmethode: Beschreibt den Trainings- und Validierungsansatz für AML-KI-Modelle.
- Modellabstimmungsmethode: Beschreibt den Prozess, mit dem AML AI Modell-Hyperparameter auf der Grundlage Ihrer Daten optimiert.
- Modellbewertungsmethode: Hier werden die Messwerte beschrieben, die für die Modellbewertung und das Backtest verwendet werden.
- Übersicht über Featurefamilien: Hier werden die unterstützten Featurefamilien und ihre Verwendung zur Erklärbarkeit (und an anderer Stelle) in AML AI erläutert.
- Schema der Risikotypologie: Hier wird beschrieben, wie AML AI Risikotypologien unterstützt und welche Methodik zur Darstellung der Abdeckung verwendet wird.
- Stabilitäts- und Supportrichtlinie für Engine-Versionen: Hier wird beschrieben, was sich zwischen den AML AI-Engine-Versionen ändert und wie lange jede Engine-Version für verschiedene Vorgänge unterstützt wird.
Modellausgaben als Governance-Artefakte
Die folgenden Artefakte werden von regulären AML AI-Vorgängen als Ausgaben generiert:
- Modellqualität
- Die Ausgabe der Engine-Konfiguration enthält den erwarteten Rückruf (vor und nach der Abstimmung), der in den Metadaten der Engine-Konfiguration erfasst wurde.
- Mit Backtest-Ergebnissen können Sie die Leistung des trainierten Modells an einer Reihe von Beispielen messen, die nicht im Training enthalten sind.
- Datenqualität
- Die fehlende Ausgabe gibt den Anteil der fehlenden Werte pro Featurefamilie in Ihren Datasets an, die für Abstimmung, Training, Backtests und Vorhersagen verwendet werden. Deutliche Änderungen können auf eine Inkonsistenz in den zugrunde liegenden Daten hinweisen, die sich auf die Modellleistung auswirken kann.
- Datenvalidierungsfehler verhindern den Abschluss von AML AI-Vorgängen. Sie müssen diese Fehler also beheben, um ein Modell und Vorhersagen erfolgreich zu erstellen.
- Vorhersageergebnisse
- Die Risikobewertungen reichen von 0 bis 1. Innerhalb dieses Bereichs weist ein höherer Wert auf ein höheres Risiko für die Partei im vorhergesagten Monat hin. Risikobewertungen dürfen nicht direkt als Wahrscheinlichkeit von Geldwäscheaktivitäten oder als Erfolg einer möglichen Untersuchung interpretiert werden.
- Die Explainable AI-Ausgabe erweitert die hohen Risikobewertungen um Attributionswerte, die den Beitrag jeder Featurefamilie zur Risikobewertung angeben.
- Mit Long-running-Operationen (LROs) können Sie alle AML AI-Prozesse verfolgen, die zur Modellvorbereitung und zu Vorhersagen verwendet werden. Weitere Informationen finden Sie unter Lang andauernde Vorgänge verwalten.