Explainable AIBeta

Tools und Frameworks zum Bereitstellen interpretierbarer und integrativer ML-Modelle

Kostenlos testen
Bild: Explainable AI – Übersicht

KI-Ausgabe verstehen und Vertrauen schaffen

Explainable AI umfasst eine Reihe von Tools und Frameworks, mit deren Hilfe Sie interpretierbare und integrative ML-Modelle erstellen und zuversichtlich bereitstellen können. Sie können damit Feature-Zuordnungen in AutoML Tables und auf der AI Platform verstehen und mit dem What-If-Tool das Modellverhalten visuell darstellen. Darüber hinaus vereinfacht die Lösung die Modell-Governance durch die kontinuierliche Evaluierung der Modelle mit der AI Platform.

Fokus auf Ihre Anwendungen

Interpretierbare und integrative KI-Systeme erstellen

Erstellen Sie von Grund auf neue interpretierbare und integrative KI-Systeme mithilfe von Tools, die es Ihnen erleichtern, Verzerrungen und andere Lücken in Daten und Modellen zu erkennen und aufzulösen. AI Explanations in AutoML Tables und auf der AI Platform liefert Data Scientists die erforderlichen Informationen, um Datasets oder die Modellarchitektur zu verbessern und die Modellleistung zu steigern. Mit dem What-If-Tool erhalten Sie einen Überblick über das Modellverhalten.

Einfach und vollständig verwaltet

KI zuversichtlich bereitstellen

Fördern Sie das Vertrauen von Endnutzern und erhöhen Sie die Transparenz mit für Menschen verständlichen Erklärungen von ML-Modellen. Wenn Sie ein Modell in AutoML Tables oder auf der AI Platform bereitstellen, erhalten Sie in Echtzeit eine Vorhersage und eine Bewertung des Einflusses eines Faktors auf das Endergebnis. Erklärungen geben zwar keine Auskunft über grundlegende Beziehungen in Ihrer Datenprobe oder -population, lassen aber die vom Modell in den Daten gefundenen Muster erkennen.

Leistung und Skalierbarkeit

Modell-Governance optimieren

Erleichtern Sie Ihrer Organisation die Verwaltung und Verbesserung von ML-Modellen durch optimiertes Monitoring der Leistung und Training. Überwachen Sie auf einfache Weise die von den Modellen auf der AI Platform getroffenen Vorhersagen. Dank der kontinuierlichen Evaluierung können Sie Modellvorhersagen mit Ground-Truth-Labels vergleichen, um fortlaufend Feedback zu erhalten und die Modellleistung zu optimieren.

Features

AI Explanations

Anhand einer Bewertung können Sie sehen, wie sich jeder Faktor auf das Endergebnis der Modellvorhersage auswirkt. Hier erfahren Sie, wie diese Bewertungen zu interpretieren sind.

What-If-Tool

Untersuchen Sie mit dem auf der AI Platform eingebundenen What-If-Tool für unterschiedliche Features in Ihrem Dataset die Modellleistung, Optimierungsstrategien und auch Änderungen an einzelnen Datenpunktwerten.

Kontinuierliche Evaluierung

Prüfen Sie stichprobenartig die Vorhersage von trainierten ML-Modellen, die auf der AI Platform bereitgestellt werden. Liefern Sie mithilfe von kontinuierlicher Evaluierung Ground-Truth-Labels für Vorhersageeingaben. Der Data Labeling Service vergleicht Modellvorhersagen mit Ground-Truth-Labels, um Ihnen die Optimierung der Modelleistung zu erleichtern.

Ressourcen

Preise

Für AI Explanations fallen für Nutzer von AutoML Tables oder der AI Platform keine zusätzlichen Kosten an. Cloud AI wird nach Knotenstunden abgerechnet. Zum Ausführen von AI Explanations für Modellvorhersagen sind Rechenleistung und Speicher erforderlich. Daher steigt die Zahl der Knotenstunden bei der Nutzung von Explainable AI möglicherweise an.

Preisangaben aufrufen
Google Cloud

Nächste Schritte

Lernen und erstellen

Profitieren Sie von einer Gutschrift über 300 $, um Google Cloud und mehr als 20 "Immer kostenlos"-Produkte kennenzulernen.

Benötigen Sie weitere Hilfe?

Unsere Experten unterstützen Sie dabei, die passende Lösung oder den richtigen Partner für Ihre Anforderungen zu finden.

KI-Produkte von Google Cloud entsprechen den hier aufgeführten SLA-Richtlinien.

Sie bieten eventuell von anderen Google Cloud-Diensten abweichende Latenz- oder Verfügbarkeitsgarantien.