Wenn Sie die vom Dienst zurückgegebenen Erklärungen berücksichtigen, sollten Sie diese allgemeinen Einschränkungen beachten. Ausführliche Erläuterungen finden Sie im AI Explanations Whitepaper.
Bedeutung und Umfang von Featureattributionen
Berücksichtigen Sie bei der Analyse der von Vertex Explainable AI bereitgestellten Featureattributionen Folgendes:
- Jede Attribution zeigt nur an, wie stark sich das Feature auf die Vorhersage für dieses bestimmte Beispiel auswirkt. Eine einzelne Attribution spiegelt unter Umständen nicht das Gesamtverhalten des Modells wider. Aggregieren Sie Attributionen für das gesamte Dataset, um das ungefähre Modellverhalten für ein gesamtes Dataset zu verstehen.
- Die Attributionen hängen vollständig vom Modell und den Daten ab, die zum Trainieren des Modells verwendet werden. Sie können nur die Muster erkennen, die vom Modell in den Daten gefunden wurden, keine grundlegenden Beziehungen in den Daten. Das Vorhandensein oder Fehlen einer starken Attribution zu einem bestimmten Feature bedeutet also nicht, dass eine Beziehung zwischen diesem Feature und dem Ziel besteht. Die Attribution zeigt lediglich, dass das Modell das Feature in seinen Vorhersagen verwendet oder nicht.
- Über Attributione allein lässt sich nicht feststellen, ob Ihr Modell angemessen, verzerrungsfrei oder von guter Qualität ist. Prüfen Sie Ihre Trainingsdaten und Evaluierungsmesswerte zusätzlich zu den Attributionen sorgfältig.
Featureattributionen verbessern
Wenn Sie mit benutzerdefinierten Modellen arbeiten, können Sie bestimmte Parameter konfigurieren, um Ihre Erläuterungen zu verbessern. Dieser Abschnitt gilt nicht für AutoML-Modelle.
Die folgenden Faktoren haben die größte Auswirkung auf Featureattributionen:
Die Attributionsmethoden entsprechen ungefähr dem Shapley-Wert. Sie können die Genauigkeit der Näherung folgendermaßen erhöhen:
- Die Anzahl der integralen Schritte für die integrierten Farbverläufe oder XRAI-Methoden erhöhen.
- Die Anzahl integraler Pfade für die Sampled Shapley-Methode erhöhen.
Dadurch können sich die Attributionen drastisch ändern.
Die Attributionen geben nur an, wie stark sich das Feature auf die Änderung des Vorhersagewerts relativ zum Baselinewert auswirkt. Wählen Sie eine aussagekräftige Baseline, die für die Frage, die Sie dem Modell stellen, relevant ist. Die Attributionswerte und ihre Interpretation können sich erheblich ändern, wenn Sie Baselines wechseln.
Bei integrierten Farbverläufen und XRAI kann die Verwendung von zwei Baselines Ihre Ergebnisse verbessern. Sie können beispielsweise Baselines angeben, die ein vollständig schwarzes Bild und ein vollständig weißes Bild darstellen.
Weitere Informationen dazu, wie Sie Featureattributionen verbessern
Einschränkungen für Bilddaten
Die beiden Attributionsmethoden, die Bilddaten unterstützen, sind integrierte Farbverläufe und XRAI.
Integrierte Farbverläufe sind eine Pixel-basierte Attributionsmethode, bei der wichtige Bereiche im Bild unabhängig vom Kontrast hervorgehoben werden. Diese Methode eignet sich daher ideal für nicht natürliche Bilder wie z. B. Röntgenaufnahmen. Die detaillierte Ausgabe kann es jedoch schwierig machen, die relative Bedeutung von Bereichen zu beurteilen. Die Standardausgabe hebt Bereiche im Bild hervor, die hohe positive Attributionen haben, indem Umrisse gezeichnet werden. Diese Umrisse werden jedoch nicht in eine Rangfolge gebracht und können sich über mehrere Objekte erstrecken.
XRAI funktioniert am besten bei natürlichen Bildern mit höherem Kontrast, die mehrere Objekte enthalten. Da diese Methode regionsbasierte Attributionen erzeugt, wird eine reibungslosere, besser lesbare Heatmap der Regionen erzeugt, die für eine bestimmte Bildklassifizierung am auffälligsten sind.
Derzeit funktioniert XRAI bei den folgenden Arten von Bildeingaben nicht:
- Bilder mit geringem Kontrast, die alle eine Schattierung haben, z. B. Röntgenaufnahmen.
- Sehr große oder sehr breite Bilder, z. B. Panoramen.
- Sehr große Bilder, die die Gesamtlaufzeit verlangsamen können.