Übersicht: BigQuery- Explainable AI
In diesem Dokument wird beschrieben, wie BigQuery ML Explainable Artificial Intelligence unterstützt, manchmal auch als XAI bezeichnet.
Mit XAI (Explainable Artificial Intelligence) können Sie die Ergebnisse nachvollziehen, die Ihr Modell für vorausschauendes maschinelles Lernen für Klassifizierungs- und Regressionsaufgaben generiert. Dazu wird definiert, wie die einzelnen Features in einer Datenzeile zum vorhergesagten Ergebnis beigetragen haben. Dies wird oft als "Feature-Attribution" bezeichnet. Anhand dieser Informationen können Sie prüfen, ob sich das Modell wie erwartet verhält, Verzerrungen in Ihren Modellen erkennen und Ideen zur Verbesserung Ihres Modells und Ihrer Trainingsdaten erhalten.
Sowohl BigQuery ML als auch Vertex AI bieten Explainable AI-Angebote mit featurebasierten Erklärungen. Sie können die Erklärbarkeit in BigQuery ML prüfen oder Ihr Modell in Vertex AI registrieren und dort die Erklärbarkeit prüfen.
Informationen zu den unterstützten SQL-Anweisungen und -Funktionen für die einzelnen Modelltypen finden Sie unter End-to-End-Nutzerpfad für jedes Modell.
Lokale Erklärbarkeit im Vergleich zu globaler Erklärbarkeit
Es gibt zwei Arten der Erklärbarkeit: lokale Erklärbarkeit und globale Erklärbarkeit. Sie werden auch als lokale Featurewichtigkeit oder globale Featurewichtigkeit bezeichnet.
- Die lokale Erklärbarkeit gibt Featureattributionswerte für jedes erklärte Beispiel Erklärbarkeit zurück. Diese Werte beschreiben, wie stark ein bestimmtes Feature die Vorhersage relativ zur Baseline-Vorhersage beeinflusst hat.
- Die globale Erklärbarkeit gibt den Gesamteinfluss des Features auf das Modell zurück und wird häufig durch Aggregation der Feature-Attributionen für das gesamte Dataset erhalten. Ein höherer absoluter Wert bedeutet, dass das Feature eine größere Auswirkung auf die Vorhersagen des Modells hat.
Explainable AI-Angebote in BigQuery ML
Explainable AI in BigQuery ML unterstützt eine Vielzahl an Modellen für maschinelles Lernen, einschließlich Zeitachsen- und Nicht-Zeitachsen-Modelle. Jedes Modell verwendet eine andere Erklärmethode.
Modellkategorie | Modelltypen | Explainable-Methode | Grundlegende Erläuterung der Methode | Lokale Erklärfunktionen | Globale Erklärfunktionen |
---|---|---|---|---|---|
Beaufsichtigte Modelle | Lineare und logistische Regression | Shapley-Werte | Shapley-Werte für lineare Modelle entsprechen dem model weight * feature
value , wobei Featurewerte standardisiert sind und Modellgewichtungen mit den standardisierten Featurewerten trainiert werden. |
ML.EXPLAIN_PREDICT 1 |
ML.GLOBAL_EXPLAIN 2 |
Standardfehler und P-Werte | Standardfehler und P-Werte werden für signifikante Tests mit den Modellgewichtungen verwendet. | – | ML.ADVANCED_WEIGHTS 4 |
||
Boosted Trees Zufallsstruktur |
Struktur-SHAP | Baum-SHAP ist ein Algorithmus zur Berechnung exakter SHAP-Werte für Entscheidungsbäume, die auf Modellen basieren. | ML.EXPLAIN_PREDICT 1 |
ML.GLOBAL_EXPLAIN 2 |
|
Ungefährer Feature-Beitrag | Nähert sich den Featurebeitragswerten an. Es ist im Vergleich zu Baum-SHAP schneller und einfacher. | ML.EXPLAIN_PREDICT 1 |
ML.GLOBAL_EXPLAIN 2 |
||
Gini-Index-basierte Feature-Wichtigkeit | Der globale Wert der Feature-Wichtigkeit, der angibt, wie nützlich oder wertvoll die einzelnen Features beim Erstellen des Boosted Tree- oder Zufallsstrukturmodells während des Trainings waren. | – | ML.FEATURE_IMPORTANCE |
||
Neuronales Deep-Learning-Netzwerk (DNN) Wide-and-Deep |
Integrierte Gradienten | Eine auf Verläufen basierende Methode, die Feature-Attributionen mit denselben axiomatischen Eigenschaften wie der Shapley-Wert berechnet. Sie bietet eine Stichprobenapproximation für Feature-Attributionen. Die Genauigkeit wird durch den integrated_gradients_num_steps -Parameter gesteuert. |
ML.EXPLAIN_PREDICT 1 |
ML.GLOBAL_EXPLAIN 2 |
|
AutoML Tables | Sampled Shapley | Sampled Shapley weist jedem Feature eine Gewichtung für das Vorhersage-Ergebnis des Modells zu und berücksichtigt verschiedene Varianten der Features. Diese Methode liefert eine Stichprobenapproximation für exakte Shapley-Werte. | – | ML.GLOBAL_EXPLAIN 2 |
|
Zeitreihenmodelle | ARIMA_PLUS | Zeitreihenzerlegung | Zerlegt die Zeitachsen in mehrere Komponenten, wenn diese Komponenten in der Zeitachse vorhanden sind. ZU den Komponenten zählen Trends, Saison, Feiertage, Schrittänderungen, Spitzen und Einbrüche. Weitere Informationen finden Sie in der Modellierungspipeline ARIMA_PLUS. | ML.EXPLAIN_FORECAST 3 |
– |
ARIMA_PLUS_XREG | Zeitreihenzerlegung und Shapley-Werte |
Zerlegt die Zeitachsen in mehrere Komponenten, einschließlich Trend, Saisonal, Feiertag, Schrittänderungen und Anstieg und Rückgang (ähnlich wie ARIMA_PLUS).
Die Attribution jedes externen Regressors wird basierend auf Shapley-Werten berechnet, was model weight * feature value entspricht. |
ML.EXPLAIN_FORECAST 3 |
– |
1ML_EXPLAIN_PREDICT
ist eine erweiterte Version von ML.PREDICT
.
2ML.GLOBAL_EXPLAIN
gibt die globale Erklärbarkeit zurück, die durch die mittlere absolute Attribution erhalten wurde, die jedes Feature für alle Zeilen im Bewertungs-Dataset empfängt.
3ML.EXPLAIN_FORECAST
ist eine erweiterte Version von ML.FORECAST
.
4ML.ADVANCED_WEIGHTS
ist eine erweiterte Version von ML.WEIGHTS
.
Explainable AI in Vertex AI
Explainable AI ist in Vertex AI für die folgenden exportierbaren Modelle des überwachten Lernens verfügbar:
Modelltyp | Explainable AI-Methode |
---|---|
dnn_classifier | Integrierte Gradienten |
dnn_regressor | Integrierte Gradienten |
dnn_linear_combined_classifier | Integrierte Gradienten |
dnn_linear_combined_regressor | Integrierte Gradienten |
boosted_tree_regressor | Sampled Shapley |
boosted_tree_classifier | Sampled Shapley |
random_forest_regressor | Sampled Shapley |
random_forest_classifier | Sampled Shapley |
Weitere Informationen zu diesen Methoden finden Sie unter Methoden zur Featureattribution.
Explainable AI in Model Registry aktivieren
Wenn Ihr BigQuery ML-Modell in der Model Registry registriert und ein Modelltyp ist, der Explainable AI unterstützt, können Sie Explainable AI bei der Bereitstellung auf einem Endpunkt aktivieren. Wenn Sie Ihr BigQuery ML-Modell registrieren, werden alle zugehörigen Metadaten automatisch für Sie ausgefüllt.
- BigQuery ML-Modell in der Model Registry registrieren
- Rufen Sie in der Google Cloud Console im Bereich "BigQuery" die Seite Model Registry auf.
- Wählen Sie in der Model Registry das BigQuery ML-Modell aus und klicken Sie auf die Modellversion, um zur Detailseite des Modells weitergeleitet zu werden.
- Wählen Sie in der Modellversion Weitere Aktionen aus.
- Klicken Sie auf In Endpunkt bereitstellen.
- Definieren Sie den Endpunkt: Geben Sie einen Endpunktnamen ein und klicken Sie auf „Weiter“.
- Wählen Sie einen Maschinentyp aus, z. B.
n1-standard-2
. - Klicken Sie unter Modelleinstellungen im Bereich „Logging“ auf das Kästchen, um die Optionen zur Erklärbarkeit zu aktivieren.
- Klicken Sie auf Fertig und dann auf Weiter, um auf dem Endpunkt bereitzustellen.
Informationen zur Verwendung von XAI für Ihre Modelle über die Modell-Registry finden Sie unter Online-Erläuterung mit dem bereitgestellten Modell abrufen. Weitere Informationen zu Explainable AI in Vertex AI finden Sie unter Erläuterungen abrufen.