The Prompt: 生成 AI モデルにリスク管理とデータ ガバナンスを導入する
Google Cloud Japan Team
※この投稿は米国時間 2023 年 8 月 12 日に、Google Cloud blog に投稿されたものの抄訳です。
このところ、ビジネス リーダーたちの間では、生成 AI が話題の中心となっています。急速に進化を続け、変革をもたらすこの分野の話題をフォローできるよう、「The Prompt」と題したシリーズを通じ、Google がお客様やパートナーと接するなかでの気づきや、Google の AI の最新動向を紹介していきます。今回は、Google Cloud の AI &ビジネス ソリューション担当グローバル VP の Philip Moyer が、生成 AI テクノロジーを採用、実装する際のリスク管理について所見を共有します。
生成 AI の時代にはデータ ガバナンスが重要です。ここ数か月間、捏造された、あるいは秘匿性のある文書に関するいくつかの失敗が広く知られるようになりましたが、一部のビジネスリーダーや政府関係者は、モデルに入力する貴重なデータが自分たちのものであることを保証できるように取り組んでいます。
生成 AI の導入が拡大し続け、組織が今までにないアプリケーションを発見し続けるにつれて、適切なバランスを取ることが緊急性を増しています。ただし、それらのアセットを信頼して活用できることが、安全を確保することと同じくらい重要です。
昨今のリーダーたちは、生成 AI テクノロジーとツールの導入に関して意欲的です。しかし、生成 AI で何をするかという疑問の次に、AI モデルのリスク管理とガバナンスはどのように確保すべきかという疑問が残ります。
The Prompt の以前の投稿で、私は生成 AI が管理可能であり、保護手段が組み込まれていなければならない理由について説明しました。生成 AI への投資は、価値を生み出す計り知れない可能性をもたらしますが、同時に特有の課題も伴います。特に、ビジネス環境で生成 AI を使用すると、精度、プライバシーとセキュリティ、法規制遵守、知的財産侵害などに関するさまざまなリスクが生じる可能性があります。
イノベーションは、信頼、プライバシー、セキュリティを犠牲にするものであってはなりません。また、その逆も同様です。企業は生成 AI モデルの力を活用しようとしていますが、それを安全かつ責任を持って行う必要があります。
ここでは、これらの各特性の重要性と、それが Google Cloud 戦略にどのように反映されるかを見ていきます。
安全で信頼できる生成 AI モデル
潜在的な生成 AI ユースケースは増え続けていますが、多くのリーダーは依然として生成 AI 基盤モデルの信頼性と精度に懸念を抱いています。リーダーたちは迅速な導入を望んでいるものの、同時に、最も重要なアセットを危険にさらすのではなく、確実に保護したいと考えています。
Google Cloud は、生成 AI の導入は簡単であると同時に安全であるべきだと考えています。Google Cloud は、運命共有モデルで活動し、ビジネスリーダーが直面するリスクの管理を支援することに積極的に取り組んでいます。その中で重要となるのは、独自のカスタム モデルを構築する場合でも、すぐに使える統合ソリューションや機能を活用する場合でも、使用する生成 AI ツールとモデルを完全に信頼し、理解できるようにすることです。
大手企業は、構築に Google Cloud 上の生成 AI を使用している。
安全性がデフォルトで備わっているデータ保護や、多くのセキュリティ制御は、Vertex AI と Gen App Builder の生成 AI サポートまで拡張されていますが、Google Cloud は組織が自信をもって AI モデルをデプロイできるようにするための追加の措置を講じました。
たとえば、Cloud AI ラージ モデルと生成 AI のための包括的なデータ ガバナンス プログラムを構築しています。このプログラムは、米国国立標準技術研究所(NIST)の AI リスク管理フレームワーク(AI RMF)と連携しており、Google の業界をリードする研究と、増え続けるリソース、ツール、推奨されるベスト プラクティスのライブラリによって支えられています。
このプログラムの一環として、エンタープライズ開発における生成 AI のニーズをサポートするためのいくつかの予防策を開発しました。これには、特定の生成 AI リスクに対するモデルを評価およびモニタリングするための技術的なガードレール、顧客データと機密性の高いユースケースに関するポリシー、明確な文書と実装ガイドが含まれます。また、トレーニング データと推論データは、Google が基盤モデルをトレーニングまたは強化するためや、他の顧客に利益をもたらすために使用されることはありません。
責任ある AI を優先する
新しいツールとシステムは、さまざまなレベルの専門知識を持つさまざまなユーザーの手に生成 AI を提供するのに役立ち、生産性と創造性を向上させる新たな機会をもたらします。それでも、生成 AI は正しく設計、導入されないと、予期せぬ結果をもたらし、組織、個人、社会全体に有害となる可能性があることにも留意する必要があr。
Google は何年もの間、AI ファーストの企業であることについて語ってきましたが、その間ずっと、生成 AI を含むすべての AI は責任をもって開発されなければならないと固く信じてきました(これは、Google が AI 管理の標準を ISO が策定できるよう支援する創設スポンサーになった理由の一つです)。社会的利益を最大化しながらリスクを軽減するには、組織が生成 AI の開発と使用方法に関する明確な倫理ガイドラインに基づいて取り組むことが不可欠です。
Google の中核となる AI 原則を超えて、スケーラブルで反復可能な倫理審査プロセスを構築しました。また、責任ある AI の実践、公平性に関するベスト プラクティス、およびチームが AI モデルを検査、理解し、効果的に適用するのに役立つその他のツールや教育資料を通じて、Google が学んだことも共有しています。昨年、Vertex の Explainable AI を拡張しました。モデルがどのように意思決定を行うかをより簡単に把握できるようにし、さらに、パフォーマンスを評価するための反復的なモデル評価や、最良のモデルのみがデプロイされることを保証するための品質監査など、データとモデルのガバナンスのサポートを強化するための新機能を追加しました。
Google Cloud の取り組みを通じて、生成 AI のリスクに対処するために、より安全で社会的に責任のある実践を促進する明確な方法があることがわかりました。各組織が生成 AI の設計と開発の初期段階で倫理的考慮事項を組み込むことができれば、実害が及ぶ前にリスクを特定し、事前予防的にリスクを軽減できます。
- Google Cloud、AI &ビジネス ソリューション担当グローバル VP Philip Moyer