Explainable AIベータ版
機械学習モデルを理解して解釈するためのツールとフレームワーク。

AI 出力の意味を把握し、ユーザーとの信頼構築に役立てる
Explainable AI は、機械学習モデルによる予測を理解し解釈するためのツールとフレームワークのセットです。これを活用してモデルのデバッグを行い、パフォーマンスを改善できます。また、ユーザーがモデルの動作を理解するうえでも役立ちます。AutoML Tables と AI Platform でのモデル予測に関する特徴属性を作成したり、What-If ツールを使ってモデルの動作を視覚的に調べることもできます。

包括的でわかりやすい AI の設計
データとモデル間のバイアス、ブレ、その他の隔たりを検出して解決できるように設計されたツールを使用して、包括的でわかりやすい AI システムを一から構築できます。AutoML Tables、AI Platform Predictions、AI Platform Notebooks に含まれる AI Explanations は、データセットまたはモデル アーキテクチャを改善してモデルのパフォーマンスをデバッグするために必要な分析情報をデータ サイエンティストに提供します。 What-If ツールを使用すると、モデルの動作が一目でわかります。

AI の確実なデプロイ
機械学習モデルに人間が解釈しやすい注釈を加えることで、エンドユーザーとの信頼関係構築と、透明性の向上を図れます。AutoML Tables または AI Platform にモデルをデプロイすると、ある要因が最終結果にどの程度影響するかを示す予測とスコアがリアルタイムで得られます。AI Explanations は、データサンプルまたは母集団内の基本関係を明らかにするわけではありませんが、データで見つかったパターンが反映されています。

モデル ガバナンスの合理化
合理化されたパフォーマンス モニタリングとトレーニングのご利用により、機械学習モデルの管理と機能改善のプロセス全般を簡単化できます。また、AI Platform で、モデルが行った予測の結果を簡単にモニタリングできます。さらには継続評価機能により、モデル予測とグラウンド トゥルース ラベルを比較して継続的なフィードバックを取得し、モデルのパフォーマンスを最適化することも可能です。
機能
AI Explanations
各要因がモデル予測にどの程度影響したかを説明するスコアを AutoML Tables、AI Platform Notebook 内、AI Platform Prediction API 経由で受け取ります。スコアについてはこちらをご覧ください。
What-If ツール
AI Platform と統合された What-If ツールを使用して、データセットの一連の特徴、最適化戦略、さらには個々のデータポイント値の操作といった観点から、モデルのパフォーマンスを評価できます。
継続評価
AI Platform にデプロイされたトレーニング済み機械学習モデルから予測をサンプリングします。継続評価機能を使用すると、予測入力のグラウンド トゥルース ラベルを提供できます。Data Labeling Service は、モデル予測をグラウンド トゥルース ラベルと比較して、モデルのパフォーマンスの改善に役立てます。


リソース
料金
AutoML Tables または AI Platform のお客様の場合、Explainable AI ツールを使用しても追加料金は発生しません。ただし、Cloud AI はノードの使用時間単位で課金され、モデル予測で AI Explanations を実行するにはコンピューティングとストレージが必要です。したがって、Explainable AI のご利用時には、ノード時間の使用量が増加する可能性があることにご注意ください。
料金の詳細を表示
Cloud AI プロダクトはこちらに記載されている各種 SLA ポリシーに準拠しています。
これらの SLA ポリシーで保証されているレイテンシまたは可用性は、他の Google Cloud サービスとは異なる場合があります。