Google Cloud Well-Architected Framework のセキュリティの柱にあるこの原則では、AI システムを保護するための推奨事項が示されています。これらの推奨事項は、Google の セキュア AI フレームワーク(SAIF)に準拠しています。SAIF は、AI システムのセキュリティとリスクに関する懸念に対処するための実用的なアプローチを提供します。SAIF は、責任ある方法で AI を構築、デプロイするための業界標準を提供することを目的とした概念フレームワークです。
原則の概要
AI システムがセキュリティ、プライバシー、コンプライアンスの要件を満たすようにするには、初期設計からデプロイと運用に至るまで、包括的な戦略を採用する必要があります。この包括的な戦略を実装するには、SAIF の 6 つの中核要素を適用します。
Google は AI を使用して、脅威の特定、セキュリティ タスクの自動化、検出機能の向上などのセキュリティ対策を強化しながら、重要な意思決定には人間が関与できるようにしています。
Google は、AI のセキュリティを強化するために協調的なアプローチを重視しています。このアプローチでは、お客様、業界、政府と連携して SAIF ガイドラインを強化し、実用的で実践的なリソースを提供します。
この原則を実装するための推奨事項は、次のセクションに分類されています。
AI を安全に使用するための推奨事項
AI を安全に使用するには、基本的なセキュリティ管理と AI 固有のセキュリティ管理の両方が必要です。このセクションでは、AI と ML のデプロイが組織のセキュリティ、プライバシー、コンプライアンスの要件を満たすようにするための推奨事項の概要について説明します。 Google Cloudの AI ワークロードと ML ワークロードに固有のアーキテクチャ原則と推奨事項の概要については、Well-Architected フレームワークの AI と ML の視点をご覧ください。
AI の使用に関する明確な目標と要件を定義する
この推奨事項は、次の重点分野に関連しています。
- クラウドのガバナンス、リスク、コンプライアンス
- AI と ML のセキュリティ
この推奨事項は、周囲のビジネス プロセスにおける AI システムのリスクをコンテキスト化する SAIF 要素と一致しています。AI システムを設計して進化させる際には、特定のビジネス目標、リスク、コンプライアンス要件を理解することが重要です。
データを安全に保ち、損失や不正使用を防止する
この推奨事項は、次の重点分野に関連しています。
- インフラストラクチャのセキュリティ
- ID とアクセスの管理
- データ セキュリティ
- アプリケーションのセキュリティ
- AI と ML のセキュリティ
この推奨事項は、次の SAIF 要素に対応しています。
- 強固なセキュリティ基盤を AI エコシステムまで拡大します。この要素には、データの収集、保存、アクセス制御、データの改ざんに対する保護が含まれます。
- AI システムのリスクをコンテキスト化する。ビジネス目標とコンプライアンスをサポートするデータ セキュリティを強調します。
AI パイプラインの安全性を確保し、改ざんに対して堅牢性を維持する
この推奨事項は、次の重点分野に関連しています。
- インフラストラクチャのセキュリティ
- ID とアクセスの管理
- データ セキュリティ
- アプリケーションのセキュリティ
- AI と ML のセキュリティ
この推奨事項は、次の SAIF 要素に対応しています。
- 強固なセキュリティ基盤を AI エコシステムまで拡大します。安全な AI システムを確立するための重要な要素として、コードとモデル アーティファクトを保護します。
- フィードバック ループを高速化するために管理を適応させます。緩和とインシデント レスポンスにとって重要であるため、アセットとパイプラインの実行をトラッキングします。
安全なツールとアーティファクトを使用して安全なシステムにアプリをデプロイする
この推奨事項は、次の重点分野に関連しています。
- インフラストラクチャのセキュリティ
- ID とアクセスの管理
- データ セキュリティ
- アプリケーションのセキュリティ
- AI と ML のセキュリティ
AI ベースのアプリケーションで安全なシステムと検証済みのツールとアーティファクトを使用することは、強固なセキュリティ基盤を AI エコシステムとサプライ チェーンに拡大する SAIF 要素に沿っています。この推奨事項に対処する手順は次のとおりです。
- ML のトレーニングとデプロイのための安全な環境を実装する
- 検証済みのコンテナ イメージを使用する
- ソフトウェア アーティファクトのサプライ チェーン レベル(SLSA)ガイドラインを適用する
入力を保護してモニタリングする
この推奨事項は、次の重点分野に関連しています。
- ロギング、監査、モニタリング
- セキュリティ運用
- AI と ML のセキュリティ
この推奨事項は、検出機能と対応機能を拡張して組織の脅威対策に AI を取り込むという SAIF 要素と一致します。問題を防ぐには、生成 AI システムのプロンプトを管理し、入力をモニタリングし、ユーザー アクセスを制御することが重要です。
AI ガバナンスに関する推奨事項
このセクションの推奨事項はすべて、クラウド ガバナンス、リスク、コンプライアンスの重点分野に関連しています。
Google Cloud は、責任ある倫理的な AI システムの構築に使用できる堅牢なツールとサービスを提供します。また、AI システムの開発、デプロイ、使用をガイドするポリシー、手順、倫理的な考慮事項のフレームワークも提供しています。
推奨事項に反映されているように、Google の AI ガバナンスへのアプローチは、次の原則に基づいています。
- 公平さ
- 透明性
- 説明責任
- プライバシー
- セキュリティ
公平性インジケーターを使用する
Vertex AI は、データ収集時またはトレーニング後の評価プロセス中にバイアスを検出できます。Vertex AI には、データバイアスやモデルバイアスなどのモデル評価指標が用意されており、モデルのバイアスを評価できます。
これらの指標は、人種、性別、階級などのさまざまなカテゴリにおける公平性に関連しています。ただし、統計的な偏差を解釈することは簡単ではありません。カテゴリ間の違いは、バイアスや有害性の兆候によるものではない可能性があります。
Vertex Explainable AI の使用
AI モデルがどのように意思決定を行うかを理解するには、Vertex Explainable AI を使用します。この機能は、モデルのロジックに隠れている可能性のあるバイアスを特定するのに役立ちます。
この説明機能は、特徴ベースの説明を提供する BigQuery ML と Vertex AI と統合されています。説明可能性は、BigQuery ML で利用することも、Vertex AI にモデルを登録してそこで利用することもできます。
データリネージを追跡する
AI システムで使用されるデータの発生元と変換を追跡します。このトラッキングは、データの流れを把握し、バイアスやエラーの潜在的な原因を特定するのに役立ちます。
データリネージは Dataplex の機能で、システム内でのデータの移動(データの送信元、データの通過先、データに適用される変換)を追跡できます。
アカウンタビリティを確立する
AI システムの開発、デプロイ、結果について明確な責任を定めます。
Cloud Logging を使用して、AI システムによって行われた重要なイベントと決定をログに記録します。ログは監査証跡を提供します。これにより、システムのパフォーマンスを把握し、改善が必要な領域を特定できます。
Error Reporting を使用して、AI システムによって発生したエラーを体系的に分析します。この分析では、根底にあるバイアスや、モデルのさらなる改良が必要な領域を示すパターンを明らかにできます。
差分プライバシーを実装する
モデルのトレーニング中にデータにノイズを追加して、個々のデータポイントを特定しづらくしながら、モデルが効果的に学習できるようにします。BigQuery の SQL を使用すると、差分プライベート集計を使用してクエリの結果を変換できます。