Google Cloud Explainable AI による透明性の向上
Google Cloud Japan Team
※この投稿は米国時間 2019 年 11 月 21 日に、Google Cloud blog に投稿されたものの抄訳です。
Google の AI の基本理念 (AI Principle) は、6 月に制定から 1 周年を迎えました。AI の基本理念とは、良識的で、倫理的、社会的に有益な方法で AI の可能性を探求する Google の誓約を正式に説明したものです。この基本理念は、Google Cloud においてはお客様に対する継続的なコミットメントとしても機能しています。世界中の何万もの企業が、プライバシー、セキュリティ、公平性、ユーザーの信頼の向上を目指しながら成長するために必要な革新的機能を提供するために、Google Cloud AI を日々活用しています。
Google は AI 基本理念に沿った AI の構築に努めており、このたびその一端を担う Explainable AI を発表できることを大変嬉しく思います。これは、機械学習モデルが結論に達する方法を人間が理解するのに役立つツールです。
Explainable AI で AI の解釈可能性を向上させる
AI は、ビジネスを効率化するための新たな方法を提供し、お客様を喜ばせる新しい機会を創出します。とはいえ、あらゆるデータドリブン型の新しい意思決定ツールと同様に、機械学習モデルをビジネスに導入するのは難しい場合があります。
機械学習モデルでは、膨大な数のデータポイント間の複雑な相関関係を特定できます。この機能により AI モデルの精度は非常に高くなるのですが、利用者はモデルの構造や重みを調べても、モデルの振る舞いについて理解することはほとんどできません。そのため、一部の意思決定者、特に信頼が重要な業界の意思決定者にとっては、結論に至った理由を説明できないため AI のメリットを得られないという事態も起こり得ます。
これがまさに、AI の解釈可能性を向上させるための最新手段として、Google Cloud AI Explanations を発表できることの喜ばしい理由です。Explanations は、機械学習モデルの出力に対する各データ要素の寄与を定量化します。このサマリーにより、企業はモデルが決定を下した理由を理解できるようになります。この情報は、モデルをさらに改善するためや、モデルの利用者と有益なデータを共有するために使用できます。
もちろん、説明できる範囲に限界はあります。たとえば、AI Explanations ではモデルがデータで発見したパターンは反映されますが、データのサンプリング、入力、適用の基本的な関係は明らかにされません。現在、Google ではその制限について透明性を保ちながら、最もわかりやすく有用な説明方法をお客様に提供するよう努めています。
AI Explanations の採用を楽しみにしているお客様からは、以下のようなフィードバックをいただいています。
Sky
「私たちの業界で AI を使用するには、モデルがどのように結論をくだしているかを理解することが不可欠です。Google Cloud の進歩により、この業界の課題が解決するのを楽しみにしています。AI Platform の What-If ツールや 特徴アトリビューション ツールなどを使用することで、データ サイエンティストは自信を持ってモデルを構築し、人間が理解できる説明を提供できるようになります。」- Sky 社データ ジャーニー責任者、Stefan Hoejmose 氏
Vivint Solar
「AI を最適化し、可能な限り最善の方法で問題を解決する能力に欠かせないのが、モデルの解釈可能性です。Google は、研究開発を通じて Explainable AI の限界を押し広げています。Google Cloud により、私たちは有用性が検証されたテクノロジーを活用することで、モデルの解釈可能性に関する課題を解決し、データ サイエンスの能力を向上させることができます。」- Vivint Solar 社チーフ データ サイエンティスト、Aaron Davis 氏
Wellio
「モデルの中身を理解することは、モデルの開発とデプロイメントの両方に不可欠です。多くの場合、私たちは予測スキルを重視しすぎる傾向があります。しかし実際、最も有用で、そして何より最も信頼されるのは、説明可能なモデルです。Google Cloud の新しいツールが、データ サイエンティストとモデル利用者の両方をサポートしてくれるのを楽しみにしています。」- Wellio 社最高技術責任者、Erik Andrejko 氏
iRobot
「私たちはニューラル ネットワークを活用して、未来の製品の機能を開発しています。ディープ ラーニング モデルのトレーニングを改善する使いやすい高品質のソリューションは、当社の取り組みに最適です。特徴のアトリビューションの問題を解決し、モデルの仕組みについて人間が理解しやすい説明を提供できるようになった Google Cloud の進歩を楽しみにしています。」 - iRobot 社最高技術責任者、Chris Jones 氏
Explainable AI は、解釈可能で包括的な機械学習モデルをデプロイするためのツールとフレームワークで構成されています。AutoML Tables と Cloud AI Platform Predictions でホストされるモデルに適用できる AI Explanations が利用可能になりました。AI Explanations と人気のある What-If ツールを組み合わせて、モデルの動作の全体像も把握できます。詳細については、こちらのブログ投稿をご覧ください。Explainable AI を活用し AI デプロイメントをより理解し易いものにすることをご希望の方は、https://cloud.google.com/explainable-ai をご覧ください。
責任ある AI の取り組みを拡大する
Google では、AI Explanations などのツールやフレームワークに加えて、AI の基本理念に沿った取り組みの新しい方法を模索し続けています。これには、透明性の向上に焦点を当てた取り組みが含まれます。そして今日、モデルカードとして紹介するのは、Cloud Vision API の 2 つの機能である顔検出とオブジェクト検出です。2019 年 1 月の学術論文「Model Cards for Model Reporting」にインスピレーションを受けたこの 2 枚の「カード」は、「さまざまな条件でベンチマーク評価を提供する、トレーニングされた機械学習モデルに付随する短いドキュメント」です。この最初に導入するモデルカードの目的は、モデルのパフォーマンスと制限に関する実用的な情報を提供して、開発者が使用目的に応じてモデルを適切に選択し、責任を持ってデプロイできるようにすることです。詳細を参照し、フィードバックを共有するには、modelcards.withgoogle.com にアクセスしてください。
さらに、Google では、開発プロセスの核心部分として、責任ある AI の使用方法でプロダクトを構築することを大切にしています。上述のように、Google では、AI の基本理念に従った取り組みをサポートするためのプロセスを開発しました。そして今回、自身の組織でそのようなプロセスを作成して対応したいと考えているお客様との連携を開始しました。お互いの取り組みを共同でサポートすることで、デプロイされた AI をさらなる成功に導きます。また、この取り組みにおいて、世界最大の銀行の 1 つであり、金融サービスを常に革新し続ける HSBC と密接に連携できていることを大変嬉しく思っています。この共同プロセスに参加することで、関連する専門知識を組織間で共有することが可能になりました。HSBC は、Google が審査プロセスにもたらした厳格さと分析に加え、安全で倫理的かつ公正な結果を確保するというコミットメントに感銘を受け、そのアプローチの価値をすぐに認識しました。並行して HSBC は、将来の AI イニシアチブが Google Cloud デプロイメントと同じガイダンスと信頼性から利益を得られるように、責任ある AI 審査プロセスを独自に開発しています。
継続的なコミットメント
今年は AI の多くの側面において目覚ましい発展がありましたが、最も刺激的なブレークスルーは、テクノロジーに関するものとは限りません。ときには、公平性とインクルージョンの向上に向けた一歩が大きな違いを生みます。だからこそ、Google では AI の力や範囲の拡大に合わせ、それがあらゆる人に役立つように引き続き全力を尽くします。責任ある AI とは目的地を指すのではなく、お客様やユーザーとともに歩む旅路そのものです。皆様もこの旅に参加されることを望んでいます。
責任ある AI への取り組みについての詳細は、https://ai.google/responsibilities/responsible-ai-practices/ をご覧ください。
- by Tracy Frey, Director of Strategy, Cloud AI