コンテンツに移動
セキュリティ & アイデンティティ

監査をスマートに: Google Cloud の Recommended AI Controls フレームワークのご紹介

2025年7月10日
Ruchi Khurana

Lead Product Manager, Cloud Security & Compliance

Pratik Bhangale

Product Manager, Cloud Security

【Next Tokyo ’25】

【Next Tokyo】120 以上のセッションをアーカイブ公開中。話題の Gemini、生成 AI、AI エージェントなどの Google Cloud のアップデートや顧客事例をチェックしましょう。

視聴はこちら

※この投稿は米国時間 2025 年 6 月 26 日に、Google Cloud blog に投稿されたものの抄訳です。

組織が新しい生成 AI アプリケーションや AI エージェントを構築してビジネス ワークフローの自動化に取り組むなかで、セキュリティ管理やリスク管理のリーダーは新たなガバナンスの課題に直面しています。AI モデルや AI エージェントは複雑で、不透明な性質を持つことが多いうえに、膨大なデータセットに依存しており、自律的に動作する可能性もあります。そのため、ガバナンス、リスク、コンプライアンス(GRC)をより適切に管理することが急務となっています。

現在の標準的なコンプライアンス プラクティスでは、AI の進化のペースに対応することが難しく、重要な疑問が未解決のまま残されています。たとえば、次のような疑問があります。

  • AI システムが社内ポリシーや変化する規制に沿って運用されていることをどのようにして証明するのか

  • トレーニングから推論、大規模な本番環境まで、AI ライフサイクル全体でデータアクセス制御が一貫して適用されていることをどのようにして検証できるか

  • モデルの完全性と、モデルが処理する機密データの完全性は、どのようなメカニズムで実証するか

これらの疑問を解決するには、手動でのチェックだけでは不十分です。そのため、Google Cloud は、証拠に基づくスケーラブルな自動化アプローチ、Recommended AI Controls フレームワークを開発しました。これは現在、スタンドアロン サービスとして、また Security Command Center の一部としてご利用いただけます。

Google Cloud Security の専門家が開発し、CISO オフィスが検証したこの事前構築済みフレームワークには、AI システムを保護するためのベスト プラクティスが組み込まれており、NIST の AI リスク管理フレームワークCyber Risk Institute(CRI)プロファイルなどの業界標準がベースラインとして使用されています。このフレームワークは、組織が Google Cloud 上の生成 AI ワークロードのクラウド ネイティブなセキュリティとコンプライアンスの状況を評価、モニタリング、監査するための直接的な方法を提供します。

最新の AI ワークロードの監査の課題

一般的な生成 AI ワークロードは複雑なエコシステムで、Vertex AI などの AI 専用プラットフォームと、Cloud StorageIdentity and Access Management(IAM)、Secret ManagerCloud LoggingVPC ネットワークなどの基盤となるプラットフォーム サービスを統合しています。

Google Cloud の AI Protection は、開発とトレーニングからランタイムと大規模な本番環境まで、AI ワークロードのライフサイクル全体にわたって安全性とセキュリティ機能を提供します。さらに、AI ワークロードを保護するだけでなく、コンプライアンスを遵守しているかどうかを監査し、AI アセットの管理を定義してドリフトをモニタリングできるようにすることが何より重要です。Google Cloud は、より包括的なアプローチでプラットフォーム コンポーネントのベスト プラクティスを定義しています。

以下に AI ワークロードの例を示します。

https://storage.googleapis.com/gweb-cloudblog-publish/images/image2_K7R8dQl.max-1600x1600.png

AI ワークロードの基盤となるコンポーネント。

Recommended AI Controls フレームワークが AI ワークロードの監査にどのように役立つか

Audit Manager は、AI のコンプライアンスと監査のプロセスの早い段階でコンプライアンスの問題を特定し、それを運用ワークフローに直接組み込みます。生成 AI ワークロードに対して、手動でのチェックリストから、保証の自動化に移行する方法は次のとおりです。

  1. セキュリティ管理のベースラインを確立する。Audit Manager は、生成 AI ワークロードの監査のためのベースラインを提供します。このベースラインは、業界のベスト プラクティスとフレームワークに基づいており、明確で追跡可能な監査の指示を提供するのに役立ちます。

  2. 管理の責任を把握する。このフレームワークは、Google の運命の共有アプローチに沿っており、各コントロールの責任(お客様が管理するものとクラウド プラットフォームが提供するもの)が把握しやすいため、お客様は必要なことに効果的に注力できます。

  3. 証拠を自動収集して監査を実行する。業界標準の技術的なコントロールに照らして、生成 AI ワークロードをシンプルかつ自動化された方法で評価します。Audit Manager は、Vertex AI の使用状況とサポート サービスについて定義されたコントロールに関連する証拠を自動的に収集することで、手動による監査準備を軽減できます。

  4. 結果を評価して対処する。監査レポートには、コントロールの違反と、推奨されるベスト プラクティスからの逸脱が強調して示されます。これにより、チームは軽微な問題が重大なリスクに発展する前に、タイムリーに対処できます。

  5. レポートを作成して共有する。証拠に基づく包括的なレポートをワンクリックで生成して共有できます。このレポートは、社内関係者や外部監査人との継続的なコンプライアンス モニタリングの取り組みに役立ちます。

  6. 継続的なモニタリングを有効にする。特定の時点のスナップショットから一歩進み、定期的な評価をスケジュールして、継続的なコンプライアンスのための一貫性のある方法を確立します。これにより、AI モデルの使用状況、権限、構成をベスト プラクティスに照らして継続的にモニタリングし、長期にわたって強固な GRC 体制を維持できます。

Recommended AI Controls フレームワークの内部

このフレームワークは、生成 AI ワークロード向けに特別に設計され、複数の重要なセキュリティ領域にわたるコントロールを提供します。重要なのは、この基本原則が、監査可能な技術チェックによって支えられていることです。そして、これらの技術チェックは、Vertex AI およびそれをサポートする Google Cloud サービスから、データソースに直接リンクされています。

含まれるコントロールの例をいくつかご紹介します。

  • アクセス制御:

    • デフォルトのサービス アカウントに対する IAM ロールの自動付与の無効化: このコントロールは、デフォルトのサービス アカウントに過剰な権限が付与されないように制限します。

    • 新しい Vertex AI Workbench のユーザー管理のノートブックとインスタンスに対する root アクセスの無効化: このブール型制約を適用すると、新しく作成された Vertex AI Workbench のユーザー管理のノートブックとインスタンスで、root アクセスを有効にできなくなります。デフォルトでは、root アクセスは有効になります。

  • データ管理:

    • 顧客管理の暗号鍵(CMEK): Google Cloud は、組織全体で CMEK が使用されるように、組織ポリシーの制約を提供しています。Cloud KMS の CMEK を使用すると、Google Cloud の保存データを保護する鍵をお客様自身が所有、コントロールできます。

    • データアクセス制御リストの構成: このリストは、ユーザーの必知事項に基づいてカスタマイズできます。データアクセス制御リスト(アクセス権限)は、ローカルおよびリモートのファイル システム、データベース、アプリケーションに適用します。

  • システムと情報の完全性:

    • 脆弱性スキャン: Google の Artifact Analysis サービスが、Artifact Registry 内のイメージとパッケージの脆弱性をスキャンします。

  • 監査と説明責任:

    • 監査と説明責任に関するポリシーと手順の要件: Google Cloud サービスは、Google Cloud リソースを使用して誰が、何を、どこで、いつ行ったかを追跡するために監査ログエントリを書き込みます。

  • 構成管理:

    • リソース サービスの使用の制限: この制約により、お客様が承認した Google Cloud サービスのみが適切な場所で使用されるようになります。たとえば、本番環境のフォルダや機密性の高いフォルダには、データの保存を承認する Google Cloud サービスのリストを定義できます。サンドボックス フォルダについては、より多くのサービスをリストで承認して、それと同時に、侵害が発生した場合にデータの引き出しを防止するデータ セキュリティ管理を設定できます。

3 ステップで AI 監査を自動化する方法

セキュリティ チームとコンプライアンス チームは、このフレームワークをすぐに使用して、手動のチェックリストから、自動化された継続的な保証に移行できます。

  1. フレームワークを選択する: Google Cloud コンソールで Audit Manager に移動して、ライブラリから Google Recommended AI Controls フレームワークを選択します。

  2. スコープを定義する: 生成 AI ワークロードがデプロイされている Google Cloud プロジェクト、フォルダ、または組織を指定します。Audit Manager は、そのスコープ内の関連リソースを自動的に把握します。

  3. 評価を実行する: 監査を開始します。Audit Manager は、関連するサービス(Vertex AI、IAM、Cloud Storage など)から、コントロールに対する証拠を収集します。その結果、収集された証拠への直接リンクを含む、各コントロールのコンプライアンス状況を示す詳細なレポートが生成されます。
https://storage.googleapis.com/gweb-cloudblog-publish/original_images/image1_nGH1mns.gif

AI 保証を今すぐ自動化

Audit Manager には、Google Cloud コンソールから直接アクセスできます。Google Cloud コンソールの [コンプライアンス] タブに移動し、[Audit Manager] を選択します。Audit Manager の使用に関する包括的なガイドについては、詳細なプロダクト ドキュメントをご覧ください。

Audit Manager のユーザー エクスペリエンス向上のため、本サービスに関するご意見をお寄せください。

-クラウド セキュリティおよびコンプライアンス担当リード プロダクト マネージャー、Ruchi Khurana 
-クラウド セキュリティ、プロダクト マネージャー、Pratik Bhangale 

 

投稿先