コンテンツに移動
セキュリティ & アイデンティティ

AI における信頼と透明性に対する Google Cloud のアプローチ

2023年12月1日
Google Cloud Japan Team

※この投稿は米国時間 2023 年 11 月 10 日に、Google Cloud blog に投稿されたものの抄訳です。

生成 AI は、私たちのビジネスのやり方に革命と変革をもたらす多大な可能性を秘めた破壊的テクノロジーとして頭角を現しています。AI には、世界中のコミュニティ、企業、国に新たな機会をもたらし、有意義な変革によって数十億の人々の生活をより良いものにする力があります。

それを実現するためには、それぞれのケースに合わせて適切にカスタマイズした方法でリスクを軽減し、信頼性、堅牢性、信用性の高い生成 AI アプリケーションを促進する一方で、イノベーションと社会的利益のための AI の将来的発展を可能にすることが課題となります。

Google Cloud は、長期的に見て、真に大胆であるための唯一の方法は、最初から責任を持った行動を取ることであると考えています

Google の研究 / 技術 / 社会部門担当シニア バイス プレジデントを務める James Manyika は次のように述べています。「私たちが開発に注力し、大胆かつ責任を持って提供する、AI を活用したイノベーションは、有用で説得力があり、あらゆる場所で人々の生活を支援し改善する可能性を秘めていると確信しています。」

Google は、データ ガバナンス、プライバシー、セキュリティ、コンプライアンスを含む幅広い分野を考慮し、責任を持ってエンタープライズ グレードの AI を構築するための総合的なアプローチで、その哲学を実践しています。新しいホワイト ペーパー Google Cloud’s Approach to Trust in AI(AI への信頼に対する Google Cloud のアプローチ)で、AI 開発においてこの基盤をどのように活用しているかについて詳しく説明しています。

このホワイト ペーパーで説明しているように、Google Cloud のアプローチは、基本的に私たちの AI の原則に基づいています。Google は責任ある AI への取り組みをいち早く取り入れ、進化させてきました。このような原則は、Google のプロダクトを利用して安全にビジネスを構築し成長させている世界中のお客様に対する継続的なコミットメントとして機能します。

Google の AI プロダクトは、安全性を重視して設計された基盤に支えられたスケーラブルな技術インフラストラクチャの上に構築されており、堅牢な論理的、運用的、物理的コントロールによってサポートされ、大規模かつデフォルトでの多層防御を実現しています。Google は、セキュリティ エコシステムに対して保護、大規模、進化という 3 つのアプローチを取っています。まず、組織が Google Cloud 上に安全な AI システムをデプロイできるよう支援します。次に、AI を活用した最先端のプロダクトやサービスを継続的にリリースすることで、組織がより優れたセキュリティ成果を大規模に達成できるようサポートします。さらに Google は、脅威の一歩先を行くために常に進化を続けています。

また、セキュリティに重点を置くだけでなく、プライバシー デザイン原則を取り入れ、プライバシー保護を組み込んだアーキテクチャを設計し、データの使用に関する適切な透明性とコントロールを提供することも、Google のアプローチに含まれています。新しいプロダクトを市場に投入する際には、プロダクト ライフサイクル全体を通じてこれらの原則を取り入れ、データの暗号化や関連機能をオン / オフにする機能など、包括的なプライバシー保護を備えたアーキテクチャを設計しています。

よく提起される質問の一つに、Google の基盤モデルがお客様のデータに基づいてトレーニングされているかどうか、ひいてはその結果、お客様のデータが Google や Google の他のお客様、あるいは一般に公開される可能性があるかどうか、というものがあります。この質問に対処するため、Google Cloud はデフォルトでは、基盤モデルのトレーニングにお客様のデータを使用しません。Google のモデルのチューニングとデプロイデータ ガバナンス プラクティスの重要な側面については、Vertex AI プロダクトで説明しています。

最後になりますが、AI 規制は絶えず変化しながら急速に進化している分野です。Google は「AI は重要すぎるため規制しないわけにはいかない」、また「重要すぎるため適切に規制しないわけにはいかない」と考えています。そこで、既存の一般概念に基づいて作成することで AI エコシステムの複雑さを反映するリスクベースのフレームワークを提唱しています。Google のチームは、新しい規制や更新された規制を詳細にモニタリングして分析し、規制当局と定期的に連携しています。また、Google Cloud は、地域や業界固有の要件を満たすために、コンプライアンス書類、認証、管理証明書、独立機関による監査報告書を公開しており、Google Cloud のプラットフォームのコンプライアンス検証作業や Vertex AI のコンプライアンスおよびセキュリティ コントロールの評価においてお客様をサポートしています

詳細については、AI の保護方法に関する概念的な枠組みである Secure AI Framework(SAIF)と、AI の保護に関してこれまでと何が変わるのか、または変わらないのかをご覧ください。

-Google Cloud、CISO オフィス、エグゼクティブ トラスト リード Marina Kaganovich

-Google Cloud、CISO オフィス セキュリティ アドバイザー Anton Chuvakin

投稿先