Übersicht: BigQuery- Explainable AI
In diesem Dokument wird beschrieben, wie BigQuery ML Explainable Artificial Intelligence unterstützt, manchmal auch als XAI bezeichnet.
Mit XAI (Explainable Artificial Intelligence) können Sie die Ergebnisse nachvollziehen, die Ihr Modell für vorausschauendes maschinelles Lernen für Klassifizierungs- und Regressionsaufgaben generiert. Dazu wird definiert, wie die einzelnen Features in einer Datenzeile zum vorhergesagten Ergebnis beigetragen haben. Dies wird oft als "Feature-Attribution" bezeichnet. Anhand dieser Informationen können Sie prüfen, ob sich das Modell wie erwartet verhält, Verzerrungen in Ihren Modellen erkennen und Ideen zur Verbesserung Ihres Modells und Ihrer Trainingsdaten erhalten.
Informationen zu den unterstützten SQL-Anweisungen und -Funktionen für die einzelnen Modelltypen erhalten Sie unter End-to-End-Nutzerpfad für jedes Modell.
Lokale Erklärbarkeit im Vergleich zu globaler Erklärbarkeit
Es gibt zwei Arten der Erklärbarkeit: lokale Erklärbarkeit und globale Erklärbarkeit. Sie werden auch als lokale Featurewichtigkeit oder globale Featurewichtigkeit bezeichnet.
- Die lokale Erklärbarkeit gibt Featureattributionswerte für jedes erklärte Beispiel Erklärbarkeit zurück. Diese Werte beschreiben, wie stark ein bestimmtes Feature die Vorhersage relativ zur Baseline-Vorhersage beeinflusst hat.
- Die globale Erklärbarkeit gibt den Gesamteinfluss des Features auf das Modell zurück und wird häufig durch Aggregation der Feature-Attributionen für das gesamte Dataset erhalten. Ein höherer absoluter Wert bedeutet, dass das Feature eine größere Auswirkung auf die Vorhersagen des Modells hat.
Explainable AI-Angebote in BigQuery ML
Explainable AI in BigQuery ML unterstützt eine Vielzahl an Modellen für maschinelles Lernen, einschließlich Zeitachsen- und Nicht-Zeitachsen-Modelle. Jedes Modell verwendet eine andere Erklärmethode.
Wenn Sie Explainable AI für BigQuery ML-Modelle verwenden möchten, die Sie in der Model Registry registriert haben, gelten andere Anforderungen. Weitere Informationen finden Sie unter Explainable AI auf BigQuery ML-Modelle anwenden.
Modellkategorie | Modelltypen | Explainable-Methode | Grundlegende Erläuterung der Methode | Lokale Erklärfunktionen | Globale Erklärfunktionen |
---|---|---|---|---|---|
Beaufsichtigte Modelle | Lineare und logistische Regression | Shapley-Werte | Shapley-Werte für lineare Modelle entsprechen dem model weight * feature
value , wobei Featurewerte standardisiert sind und Modellgewichtungen mit den standardisierten Featurewerten trainiert werden. |
ML.EXPLAIN_PREDICT 1 |
ML.GLOBAL_EXPLAIN 2 |
Standardfehler und P-Werte | Standardfehler und P-Werte werden für signifikante Tests mit den Modellgewichtungen verwendet. | NA | ML.ADVANCED_WEIGHTS 4 |
||
Boosted Trees Zufallsstruktur |
Struktur-SHAP | Baum-SHAP ist ein Algorithmus zur Berechnung exakter SHAP-Werte für Entscheidungsbäume, die auf Modellen basieren. | ML.EXPLAIN_PREDICT 1 |
ML.GLOBAL_EXPLAIN 2 |
|
Ungefährer Feature-Beitrag | Nähert sich den Featurebeitragswerten an. Es ist im Vergleich zu Baum-SHAP schneller und einfacher. | ML.EXPLAIN_PREDICT 1 |
ML.GLOBAL_EXPLAIN 2 |
||
Gini-Index-basierte Feature-Wichtigkeit | Der globale Wert der Feature-Wichtigkeit, der angibt, wie nützlich oder wertvoll die einzelnen Features beim Erstellen des Boosted Tree- oder Zufallsstrukturmodells während des Trainings waren. | NA | ML.FEATURE_IMPORTANCE |
||
Neuronales Deep-Learning-Netzwerk (DNN) Wide-and-Deep |
Integrierte Gradienten | Eine auf Verläufen basierende Methode, die Feature-Attributionen mit denselben axiomatischen Eigenschaften wie der Shapley-Wert berechnet. Sie bietet eine Stichprobenapproximation für Feature-Attributionen. Die Genauigkeit wird durch den integrated_gradients_num_steps -Parameter gesteuert. |
ML.EXPLAIN_PREDICT 1 |
ML.GLOBAL_EXPLAIN 2 |
|
AutoML Tables | Sampled Shapley | Sampled Shapley weist jedem Feature eine Gewichtung für das Vorhersage-Ergebnis des Modells zu und berücksichtigt verschiedene Varianten der Features. Diese Methode liefert eine Stichprobenapproximation für exakte Shapley-Werte. | NA | ML.GLOBAL_EXPLAIN 2 |
|
Zeitreihenmodelle | ARIMA_PLUS | Zeitreihenzerlegung | Zerlegt die Zeitachsen in mehrere Komponenten, wenn diese Komponenten in der Zeitachse vorhanden sind. ZU den Komponenten zählen Trends, Saison, Feiertage, Schrittänderungen, Spitzen und Einbrüche. Weitere Informationen finden Sie in der Modellierungspipeline ARIMA_PLUS. | ML.EXPLAIN_FORECAST 3 |
NA |
ARIMA_PLUS_XREG | Zeitreihenzerlegung und Shapley-Werte |
Zerlegt die Zeitachsen in mehrere Komponenten, einschließlich Trend, Saisonal, Feiertag, Schrittänderungen und Anstieg und Rückgang (ähnlich wie ARIMA_PLUS).
Die Attribution jedes externen Regressors wird basierend auf Shapley-Werten berechnet, was model weight * feature value entspricht. |
ML.EXPLAIN_FORECAST 3 |
NA |
1ML_EXPLAIN_PREDICT
ist eine erweiterte Version von ML.PREDICT
.
2ML.GLOBAL_EXPLAIN
gibt die globale Erklärbarkeit zurück, die durch die mittlere absolute Attribution erhalten wurde, die jedes Feature für alle Zeilen im Bewertungs-Dataset empfängt.
3ML.EXPLAIN_FORECAST
ist eine erweiterte Version von ML.FORECAST
.
4ML.ADVANCED_WEIGHTS
ist eine erweiterte Version von ML.WEIGHTS
.