Übersicht: BigQuery- Explainable AI

In diesem Dokument wird beschrieben, wie BigQuery ML Explainable Artificial Intelligence unterstützt, manchmal auch als XAI bezeichnet.

Mit XAI (Explainable Artificial Intelligence) können Sie die Ergebnisse nachvollziehen, die Ihr Modell für vorausschauendes maschinelles Lernen für Klassifizierungs- und Regressionsaufgaben generiert. Dazu wird definiert, wie die einzelnen Features in einer Datenzeile zum vorhergesagten Ergebnis beigetragen haben. Dies wird oft als "Feature-Attribution" bezeichnet. Anhand dieser Informationen können Sie prüfen, ob sich das Modell wie erwartet verhält, Verzerrungen in Ihren Modellen erkennen und Ideen zur Verbesserung Ihres Modells und Ihrer Trainingsdaten erhalten.

Informationen zu den unterstützten SQL-Anweisungen und -Funktionen für die einzelnen Modelltypen erhalten Sie unter End-to-End-Nutzerpfad für jedes Modell.

Lokale Erklärbarkeit im Vergleich zu globaler Erklärbarkeit

Es gibt zwei Arten der Erklärbarkeit: lokale Erklärbarkeit und globale Erklärbarkeit. Sie werden auch als lokale Featurewichtigkeit oder globale Featurewichtigkeit bezeichnet.

  • Die lokale Erklärbarkeit gibt Feature-Attributionswerte für jedes erläuterte Beispiel zurück. Diese Werte beschreiben, wie stark ein bestimmtes Feature die Vorhersage relativ zur Baseline-Vorhersage beeinflusst hat.
  • Die globale Erklärbarkeit gibt den Gesamteinfluss des Features auf das Modell zurück und wird häufig durch Aggregation der Featureattributionen über das gesamte Dataset abgerufen. Ein höherer absoluter Wert bedeutet, dass das Feature eine größere Auswirkung auf die Vorhersagen des Modells hat.

Explainable AI-Angebote in BigQuery ML

Explainable AI in BigQuery ML unterstützt eine Vielzahl an Modellen für maschinelles Lernen, einschließlich Zeitachsen- und Nicht-Zeitachsen-Modelle. Jedes Modell verwendet eine andere Erklärmethode.

Wenn Sie Explainable AI für BigQuery ML-Modelle verwenden möchten, die Sie in der Model Registry registriert haben, gelten andere Anforderungen. Weitere Informationen finden Sie unter Explainable AI auf BigQuery ML-Modelle anwenden.

Modellkategorie Modelltypen Explainable-Methode Grundlegende Erläuterung der Methode Lokale Erklärfunktionen Globale Erklärfunktionen
Beaufsichtigte Modelle Lineare und logistische Regression Shapley-Werte Shapley-Werte für lineare Modelle entsprechen dem model weight * feature value, wobei Featurewerte standardisiert sind und Modellgewichtungen mit den standardisierten Featurewerten trainiert werden. ML.EXPLAIN_PREDICT1 ML.GLOBAL_EXPLAIN2
Standardfehler und P-Werte Standardfehler und P-Werte werden für signifikante Tests mit den Modellgewichtungen verwendet. ML.ADVANCED_WEIGHTS4
Boosted Trees

Zufallsstruktur
Struktur-SHAP Baum-SHAP ist ein Algorithmus zur Berechnung exakter SHAP-Werte für Entscheidungsbäume, die auf Modellen basieren. ML.EXPLAIN_PREDICT1 ML.GLOBAL_EXPLAIN2
Ungefährer Feature-Beitrag Nähert sich den Featurebeitragswerten an. Es ist schneller und einfacher als Tree SHAP. ML.EXPLAIN_PREDICT1 ML.GLOBAL_EXPLAIN2
Gini-Index-basierte Feature-Wichtigkeit Der globale Wert der Feature-Wichtigkeit, der angibt, wie nützlich oder wertvoll die einzelnen Features beim Erstellen des Boosted Tree- oder Zufallsstrukturmodells während des Trainings waren. ML.FEATURE_IMPORTANCE
Neuronales Deep-Learning-Netzwerk (DNN)

Wide-and-Deep
Integrierte Gradienten Eine auf Verläufen basierende Methode, die Feature-Attributionen mit denselben axiomatischen Eigenschaften wie der Shapley-Wert berechnet. Sie bietet eine Stichprobenapproximation für Feature-Attributionen. Die Genauigkeit wird durch den integrated_gradients_num_steps-Parameter gesteuert. ML.EXPLAIN_PREDICT1 ML.GLOBAL_EXPLAIN2
AutoML Tables Sampled Shapley Sampled Shapley weist jedem Feature eine Gewichtung für das Vorhersage-Ergebnis des Modells zu und berücksichtigt verschiedene Varianten der Features. Diese Methode liefert eine Stichprobenapproximation für exakte Shapley-Werte. ML.GLOBAL_EXPLAIN2
Zeitreihenmodelle ARIMA_PLUS Zeitreihenzerlegung Zerlegt die Zeitachsen in mehrere Komponenten, wenn diese Komponenten in der Zeitachse vorhanden sind. ZU den Komponenten zählen Trends, Saison, Feiertage, Schrittänderungen, Spitzen und Einbrüche. Weitere Informationen finden Sie in der Modellierungspipeline ARIMA_PLUS. ML.EXPLAIN_FORECAST3
ARIMA_PLUS_XREG Zeitachsenzerlegung
und
Shapley-Werte
Zerlegt die Zeitachsen in mehrere Komponenten, einschließlich Trend, Saisonal, Feiertag, Schrittänderungen und Anstieg und Rückgang (ähnlich wie ARIMA_PLUS). Die Attribution jedes externen Regressors wird basierend auf Shapley-Werten berechnet, was model weight * feature value entspricht. ML.EXPLAIN_FORECAST3

1ML_EXPLAIN_PREDICT ist eine erweiterte Version von ML.PREDICT.

2ML.GLOBAL_EXPLAIN gibt die globale Erklärbarkeit zurück, die durch die mittlere absolute Attribution erhalten wurde, die jedes Feature für alle Zeilen im Bewertungs-Dataset empfängt.

3ML.EXPLAIN_FORECAST ist eine erweiterte Version von ML.FORECAST.

4ML.ADVANCED_WEIGHTS ist eine erweiterte Version von ML.WEIGHTS.