セキュア AI フレームワーク(SAIF)と Google Cloud

GShield

セキュア AI フレームワーク(SAIF)と Google Cloud

セキュア AI フレームワーク(SAIF)と Google Cloud

セキュア AI フレームワーク(SAIF)は、AI システムの保護を検討している組織にガイダンスを提供します。

Google は、組織における SAIF の実装をサポートし、AI システムを安全に構築してデプロイできるようにするために、SAIF リスク自己評価 を含む SAIF.google を作成しました。

以下では、SAIF の観点から Google Cloud Security ポートフォリオを検討し、さまざまなクラウド ソリューションと管理機能を使用して、組織が潜在的な AI リスクを軽減する方法をご紹介します。

仕組み

SAIF リスクレポートで特定されたリスクへの対処を検討していますか?ご利用を開始

一般的な使用例

データ ポイズニング

Google Cloud のセキュリティへの取り組みの一環として、Google の基盤モデルには、不正なコピーや読み取りを防止するための広範なアクセス制御と、不正なアクションをモニタリングするための最先端の検出機能が備わっています。

Google Cloud は、お客様が Google のモデルやお客様独自のサードパーティ サービスを保護するために、Google のプラットフォームで構成できる管理機能も提供しています。組織のポリシーと VPC Service Controls は、データの引き出しを防止し、きめ細かい Identity and Access Management(IAM)制御により不正アクセスを防止します。

Google Cloud がお客様のデータ保護にどのように役立つかについて、詳しくは以下をご覧ください。

  • VPC Service Controls - クラウド リソース、機密データ、ネットワークの周囲に隔離の境界を作成することで、データの引き出しを防止します。Vertex AI 固有のポリシーも含まれます。
  • 組織のポリシー サービスを使用して、どのリソース構成を許可または拒否するかを適用するセキュリティ ガードレールを提供します。
  • Vertex AI Model Registry を使用して、ML モデルのライフサイクルを整理、追跡、管理します。
  • データ セキュリティ ポスチャーの管理 - アクセス ポリシーとフロー制御ポリシーを使用して、セキュリティ、プライバシー、コンプライアンスのためにモデル、データセット、関連する ML アーティファクトを管理します。
  • Confidential Computing を活用した Confidential AI は、ハードウェア ベースのデータとモデルの保護を機密性、完全性、分離の確保により CPU から GPU に拡張し、AI と ML に不可欠なワークロードを加速します。Google は最近、AI / ML ワークロードのプライバシーと機密性の保護を目的に開発した 2 つの新しい Confidential Computing ソリューションを発表しました。NVIDIA H100 Tensor Core GPU を搭載した Confidential VMs と Intel Advanced Matrix Extensions(インテル AMX)をサポートする Confidential VMs です。詳細
  • Google Privileged Access Management: アクセス承認アクセスの透明性Key Access Justifications により、データと暗号鍵へのアクセスを安全に信頼できます。Google は、Google 社員によるお客様のデータアクセス リクエストを共有し、AI ワークロードを含むクラウド プロバイダのデータアクセスに対して、明示的(お客様のアクセス承認を複数の関係者による承認として)または暗号で強制された正当な理由に基づく(Key Access Justifications)制御を求める機能をお客様に提供します。暗号による検証と詳細なログにより、完全な透明性と制御が保証され、AI 関連データを含む機密データの Google による処理に対する信頼が構築されます。

    Google Cloud のセキュリティへの取り組みの一環として、Google の基盤モデルには、不正なコピーや読み取りを防止するための広範なアクセス制御と、不正なアクションをモニタリングするための最先端の検出機能が備わっています。

    Google Cloud は、お客様が Google のモデルやお客様独自のサードパーティ サービスを保護するために、Google のプラットフォームで構成できる管理機能も提供しています。組織のポリシーと VPC Service Controls は、データの引き出しを防止し、きめ細かい Identity and Access Management(IAM)制御により不正アクセスを防止します。

    Google Cloud がお客様のデータ保護にどのように役立つかについて、詳しくは以下をご覧ください。

    • VPC Service Controls - クラウド リソース、機密データ、ネットワークの周囲に隔離の境界を作成することで、データの引き出しを防止します。Vertex AI 固有のポリシーも含まれます。
    • 組織のポリシー サービスを使用して、どのリソース構成を許可または拒否するかを適用するセキュリティ ガードレールを提供します。
    • Vertex AI Model Registry を使用して、ML モデルのライフサイクルを整理、追跡、管理します。
    • データ セキュリティ ポスチャーの管理 - アクセス ポリシーとフロー制御ポリシーを使用して、セキュリティ、プライバシー、コンプライアンスのためにモデル、データセット、関連する ML アーティファクトを管理します。
    • Confidential Computing を活用した Confidential AI は、ハードウェア ベースのデータとモデルの保護を機密性、完全性、分離の確保により CPU から GPU に拡張し、AI と ML に不可欠なワークロードを加速します。Google は最近、AI / ML ワークロードのプライバシーと機密性の保護を目的に開発した 2 つの新しい Confidential Computing ソリューションを発表しました。NVIDIA H100 Tensor Core GPU を搭載した Confidential VMs と Intel Advanced Matrix Extensions(インテル AMX)をサポートする Confidential VMs です。詳細
    • Google Privileged Access Management: アクセス承認アクセスの透明性Key Access Justifications により、データと暗号鍵へのアクセスを安全に信頼できます。Google は、Google 社員によるお客様のデータアクセス リクエストを共有し、AI ワークロードを含むクラウド プロバイダのデータアクセスに対して、明示的(お客様のアクセス承認を複数の関係者による承認として)または暗号で強制された正当な理由に基づく(Key Access Justifications)制御を求める機能をお客様に提供します。暗号による検証と詳細なログにより、完全な透明性と制御が保証され、AI 関連データを含む機密データの Google による処理に対する信頼が構築されます。

      モデル流出、モデルソースの改ざん、データ ポイズニングなどの AI リスクに対処するための追加サポートを必要としていませんか?

      Google Cloud コンサルティング サービスは、モデルとデータアクセスの制御において強力な AI セキュリティ ポスチャーを実現するのに役立ちます。

      • クラウド基盤の保護: AI ワークロードを実行するために必要な保護機能を使用して、強固で安全なインフラストラクチャ基盤を確立します。
      • 生成 AI セキュリティ アクセラレータ: Google の AI セキュリティ スペシャリストから、Google のセキュア AI フレームワークを実装して生成 AI ワークロードを AI 固有のリスクから保護する方法について学びます。
      • セキュリティ強化: Infrastructure as Code(IaC)を使用して、安全な設計とエンドツーエンドの AI サービスのデプロイを実現します。
      • 高度な脅威シミュレーション: 実際の AI 脅威を分離された Google Cloud 環境でシミュレートして、セキュリティ チームをトレーニングし、セキュリティ インシデントへの対応準備状況を評価します。

      Google Cloud コンサルティング サービスに問い合わせる

      Mandiant のエキスパートが、AI を安全に活用できるよう支援します。

      • AI のレッドチーム編成: AI システムを保護する防御を検証し、AI システムに関係するアクティブな攻撃を検出して対応する能力を評価します。
      • AI の使用を保護する: AI モデルに基づいて構築されたアーキテクチャ、データ防御、アプリケーションを評価し、セキュリティ フレームワークを使用して脅威モデルを開発します。

      Mandiant のセキュリティ エキスパートに問い合わせる


      このリスクカテゴリが、SAIF リスク自己評価のどの質問に関連するのかご関心がおありでしょうか?

      • トレーニング、チューニング、評価データにおける悪意のある変更や偶発的な変更を検出、削除、修復できますか?
      • すべてのモデル、データセット(トレーニング、チューニング、評価用)、関連する ML アーティファクト(コードなど)の完全なインベントリはありますか?
      • すべてのモデル、データセット、関連する ML アーティファクトに対して、不正な読み取りやコピーを最小限に抑え、検出して防止するための堅牢なアクセス制御を実施していますか?
      • モデルのトレーニング、チューニング、評価に使用されるすべてのデータ、モデル、コードが、モデルの開発中およびデプロイ中に検出されることなく改ざんされないことを保証できますか?
      • モデルの開発とデプロイに使用されるフレームワーク、ライブラリ、ソフトウェア システム、ハードウェア コンポーネントに対し、セキュリティの脆弱性についての分析と保護を行っていますか?
      SAIF リスク自己評価を受ける

        ML サービス拒否攻撃

        セキュリティは Google Cloud の主要な要素であり、多層防御アプローチを採用しています。堅牢な対策の一環として、分散型サービス拒否攻撃(DDoS)などのサービス中断から保護する強力な機能を備えています。また、Cloud Armor を通じて、お客様がこのような DDoS 攻撃やアプリケーション レイヤの攻撃から保護するために利用できる追加の防御も提供しています。

        Google の組み込みのセキュリティおよびリスク管理ソリューションである Security Command Center は、予防制御と検出制御によって Vertex AI アプリケーションを保護します。このような対策には、Vertex AI のセキュリティ イベントへの対応や、実際の攻撃者が Vertex AI ワークロードにアクセスして不正使用を試みる手法を再現する攻撃パス シミュレーションが含まれます。   

        AI アプリケーションの場合、Model Armor を利用して、基盤モデルのプロンプトとレスポンスの検査、ルーティング、保護を行うこともできます。これにより、お客様はプロンプト インジェクション、ジェイルブレイク、有害コンテンツ、センシティブ データ漏洩などのリスクを軽減できます。Model Armor は、Vertex AI など、Google Cloud のプロダクトと統合される予定です。Model Armor の早期アクセスについての詳細をご希望の場合は、こちらからご登録いただくか、オンデマンド動画をご覧ください。


          セキュリティは Google Cloud の主要な要素であり、多層防御アプローチを採用しています。堅牢な対策の一環として、分散型サービス拒否攻撃(DDoS)などのサービス中断から保護する強力な機能を備えています。また、Cloud Armor を通じて、お客様がこのような DDoS 攻撃やアプリケーション レイヤの攻撃から保護するために利用できる追加の防御も提供しています。

          Google の組み込みのセキュリティおよびリスク管理ソリューションである Security Command Center は、予防制御と検出制御によって Vertex AI アプリケーションを保護します。このような対策には、Vertex AI のセキュリティ イベントへの対応や、実際の攻撃者が Vertex AI ワークロードにアクセスして不正使用を試みる手法を再現する攻撃パス シミュレーションが含まれます。   

          AI アプリケーションの場合、Model Armor を利用して、基盤モデルのプロンプトとレスポンスの検査、ルーティング、保護を行うこともできます。これにより、お客様はプロンプト インジェクション、ジェイルブレイク、有害コンテンツ、センシティブ データ漏洩などのリスクを軽減できます。Model Armor は、Vertex AI など、Google Cloud のプロダクトと統合される予定です。Model Armor の早期アクセスについての詳細をご希望の場合は、こちらからご登録いただくか、オンデマンド動画をご覧ください。


            ML サービスの拒否やモデルのリバース エンジニアリングなどの AI リスクに対処するための追加サポートを必要としていませんか?

            Mandiant のエキスパートと連携して、AI を安全に活用できます。

            • AI のレッドチーム編成: AI システムを保護する防御を検証し、AI システムに関係するアクティブな攻撃を検出して対応する能力を評価します。
            • AI の使用を保護する: AI モデルに基づいて構築されたアーキテクチャ、データ防御、アプリケーションを評価し、セキュリティ フレームワークを使用して脅威モデルを開発します。

            Mandiant のセキュリティ エキスパートに問い合わせる


            このリスクカテゴリが、SAIF リスク自己評価のどの質問に関連するのかご関心がおありでしょうか?

            • 生成 AI アプリケーションとモデルを、ユーザー アカウント、デバイス、API からの大規模な悪意のあるクエリから保護していますか?
            SAIF リスク自己評価を受ける

              Google Cloud で AI のセキュリティ ポスチャーを強化

              AI のセキュリティ確保の独自性について理解しようとしていますか?AI と従来のソフトウェア開発のセキュリティの違いをご確認ください。

              組織で AI の会話機能を開始する必要がありますか?AI を安全に使用し、そのセキュリティ上のメリットを活用するために、CISO が自問自答すべき 7 つの重要な質問から始めましょう。

              生成 AI、プライバシー、Google Cloud: AI データ コンポーネントに取り組む準備はできていますか?生成 AI サービスの開発におけるプライバシーとデータ保護に対する Google Cloud のアプローチについて、詳細をご確認ください。

              • Google Cloud プロダクト
              • 100 種類を超えるプロダクトをご用意しています。新規のお客様には、ワークロードの実行、テスト、デプロイができる無料クレジット $300 分を差し上げます。また、すべてのお客様に 25 以上のプロダクトを無料でご利用いただけます(毎月の使用量上限があります)。
              Google Cloud