Explainable AIBeta
Tools und Frameworks, die Ihnen dabei helfen, Ihre Modelle für maschinelles Lernen zu verstehen und zu interpretieren

KI-Ausgabe verstehen und Vertrauen schaffen
Explainable AI umfasst eine Reihe von Tools und Frameworks, mit deren Hilfe Sie durch Ihre ML-Modelle generierte Vorhersagen verstehen und interpretieren können. Sie haben die Möglichkeit, Ihre Modelle zu debuggen und deren Leistung zu steigern sowie anderen zu helfen, das Modellverhalten zu verstehen. Außerdem können Sie Feature-Attributionen für Modellvorhersagen in AutoML Tables und der AI Platform erstellen und das Modellverhalten mit dem What-If-Tool visuell untersuchen.

Interpretierbare und integrative KI-Systeme erstellen
Erstellen Sie von Grund auf neue interpretierbare und integrative KI-Systeme mithilfe von Tools, die es Ihnen erleichtern, Verzerrungen und andere Lücken in Daten und Modellen zu erkennen und aufzulösen. AI Explanations in AutoML Tables, AI Platform Predictions und AI Platform Notebooks liefert Data Scientists die erforderlichen Informationen, mit denen sie dann Datasets und Modellarchitekturen verbessern und die Modellleistung steigern können. Mit dem What-If-Tool erhalten Sie einen Überblick über das Modellverhalten.

KI zuversichtlich bereitstellen
Fördern Sie das Vertrauen von Endnutzern und erhöhen Sie die Transparenz mit für Menschen verständlichen Erklärungen von ML-Modellen. Wenn Sie ein Modell in AutoML Tables oder auf der AI Platform bereitstellen, erhalten Sie in Echtzeit eine Vorhersage und eine Bewertung des Einflusses eines Faktors auf das Endergebnis. Erklärungen geben zwar keine Auskunft über grundlegende Beziehungen in Ihrer Datenprobe oder -population, lassen aber die vom Modell in den Daten gefundenen Muster erkennen.

Modell-Governance optimieren
Erleichtern Sie Ihrer Organisation die Verwaltung und Verbesserung von ML-Modellen durch optimiertes Monitoring der Leistung und Training. Sie können die von den Modellen auf der AI Platform getroffenen Vorhersagen auf einfache Weise überwachen. Dank der kontinuierlichen Evaluierung lassen sich Modellvorhersagen mit Ground-Truth-Labels vergleichen. So erhalten Sie fortlaufend Feedback und können die Modellleistung optimieren.
Features
AI Explanations
Anhand einer Bewertung können Sie sehen, welchen Beitrag jeder Faktor für die Modellvorhersagen in AutoML Tables, AI Platform Notebooks oder über die AI Platform Prediction API leistet. Hier erfahren Sie, wie diese Bewertungen zu interpretieren sind.
What-If-Tool
Untersuchen Sie die Modellleistung für unterschiedliche Features in Ihrem Dataset, Optimierungsstrategien und auch Änderungen an einzelnen Datenpunktwerten mit dem in AI Platform eingebundenen What-If-Tool.
Kontinuierliche Evaluierung
Prüfen Sie stichprobenartig die Vorhersage von in AI Platform bereitgestellten, trainierten ML-Modellen. Liefern Sie mithilfe von kontinuierlicher Evaluierung Ground-Truth-Labels für Vorhersageeingaben. Der Data Labeling Service vergleicht Modellvorhersagen mit Ground-Truth-Labels, um Ihnen die Optimierung der Modelleistung zu erleichtern.


Ressourcen
Preise
Für AI Explanations fallen für Nutzer von AutoML Tables oder der AI Platform keine zusätzlichen Kosten an. Cloud AI wird nach Knotenstunden abgerechnet. Zum Ausführen von AI Explanations für Modellvorhersagen sind Rechenleistung und Speicher erforderlich. Daher steigt die Zahl der Knotenstunden bei der Nutzung von Explainable AI möglicherweise an.
Preisangaben aufrufen
Nächste Schritte
Lernen und erstellen
Profitieren Sie von einer Gutschrift über 300 $, um Google Cloud und mehr als 20 immer kostenlose Produkte kennenzulernen.
Benötigen Sie weitere Hilfe?
Unsere Experten unterstützen Sie dabei, die passende Lösung oder den richtigen Partner für Ihre Anforderungen zu finden.
Cloud AI-Produkte entsprechen den hier aufgeführten SLA-Richtlinien.
Sie bieten eventuell von anderen Google Cloud-Diensten abweichende Latenz- oder Verfügbarkeitsgarantien.