Modell- und Risiko-Governance-Artefakte erfassen

Modell- und Risiko-Governance ist der Prozess, bei dem festgestellt wird, dass die Modelle von allen Stakeholdergruppen ausreichend sind. Ihr Prozess kann unter anderem die Validierung neuer Modelle, das Modellmonitoring, Sicherheits- und Compliancestandards, Supportprozesse, Risikoabdeckung, Betriebshandbücher und Nutzerhandbücher umfassen.

Als Inhaber eines Risiko-Frameworks bieten Ihnen die folgenden Artefakte nützliche Ressourcen zur Einbindung von AML AI in Ihre allgemeine Risikomanagementlandschaft. AML AI liefert Dokumentationen, die für die Modell- und Risiko-Governance relevant sind, sowie verschiedene Ausgaben aus der Feinabstimmung, dem Training und der Bewertung Ihres AML AI-Modells.

Dokumentation zu Modell und Risiko-Governance

Die folgende Konzeptdokumentation, die für AML AI-Kunden auf Anfrage verfügbar ist, dient als Governance-Artefakte in Ihrem Gesamtrisikomanagement und Ihrem KI/ML-Modell und dem Risiko-Governance-Framework:

  • Modellarchitektur: Beschreibet die spezifische Modellarchitektur, die für AML AI zur Berechnung von Risikobewertungen verwendet wird.
  • Labeling-Methode: Hier werden die Ansätze zum Definieren von Trainingsbeispielen mit Labels für Feinabstimmung, Training und Backtests von AML AI-Modellen beschrieben.
  • Modelltrainingsmethode: Hier wird der Trainings- und Validierungsansatz für AML-KI-Modelle beschrieben.
  • Methode der Modellabstimmung: Hier wird der Prozess beschrieben, mit dem AML AI Modell-Hyperparameter auf der Grundlage Ihrer Daten optimiert.
  • Modellbewertungsmethodik: Beschreibet die Messwerte, die für die Modellbewertung und das Backtesting verwendet werden.
  • Übersicht über Featurefamilien: Hier werden die unterstützten Featurefamilien und ihre Verwendung zur Erläuterung (und an anderer Stelle) in AML AI beschrieben.
  • Risikotypologieschema: Hier wird beschrieben, wie AML AI Risikotypologien unterstützt und welche Methodik zur Veranschaulichung der Abdeckung verwendet wird.
  • Stabilitäts- und Supportrichtlinie für Engine-Versionen: Hier wird beschrieben, was sich zwischen den AML AI-Engine-Versionen ändert und wie lange jede Engine-Version für verschiedene Vorgänge unterstützt wird.

Modellausgaben als Governance-Artefakte

Die folgenden Artefakte werden von regulären AML AI-Vorgängen als Ausgaben generiert:

  • Modellqualität
    • Die Ausgabe der Engine-Konfiguration enthält einen erwarteten Rückruf (vor und nach der Feinabstimmung), der in den Metadaten der Engine-Konfiguration erfasst wurde.
    • Mit Backtest-Ergebnissen können Sie die Leistung eines trainierten Modells an einer Reihe von Beispielen messen, die nicht im Training enthalten sind.
  • Datenqualität
    • Die fehlende Ausgabe gibt den Anteil der fehlenden Werte pro Featurefamilie in Ihren Datasets an, die für Feinabstimmung, Training, Backtests und Vorhersagen verwendet werden. Erhebliche Änderungen können auf eine Inkonsistenz in den zugrunde liegenden Daten hinweisen, die sich auf die Modellleistung auswirken kann.
    • Datenvalidierungsfehler verhindern den Abschluss von AML AI-Vorgängen. Daher müssen Sie diese Fehler beheben, um ein Modell und Vorhersagen erfolgreich zu erstellen.
  • Vorhersageergebnisse
    • Die Risikobewertungen variieren von 0 bis 1. Ein höherer Wert innerhalb dieses Bereichs weist auf ein höheres Risiko für die Partei im vorhergesagten Monat hin. Risikobewertungen dürfen nicht direkt als Wahrscheinlichkeit von Geldwäscheaktivitäten oder als Erfolg einer möglichen Untersuchung interpretiert werden.
    • Die Explainable AI-Ausgabe verbessert hohe Risikobewertungen mit Attributionswerten, die den Beitrag jeder Featurefamilie zur Risikobewertung angeben.
  • Mit Long-running-Vorgängen (LROs) können Sie alle AML AI-Prozesse verfolgen, die bei der Modellvorbereitung und bei Vorhersagen verwendet werden. Weitere Informationen finden Sie unter Lang andauernde Vorgänge verwalten.