セキュリティに AI を使用する

Last reviewed 2025-02-05 UTC

Google Cloud Well-Architected Framework のセキュリティの柱にあるこの原則では、AI を使用してクラウド ワークロードのセキュリティを強化するための推奨事項が示されています。

サイバー攻撃の増加と高度化に伴い、セキュリティ強化に AI の可能性を活用することが重要になっています。AI は、脅威の数を減らし、セキュリティ プロフェッショナルが行う必要のある手作業を減らし、サイバーセキュリティ ドメインの専門家の不足を補うことができます。

原則の概要

AI 機能を使用して、既存のセキュリティ システムとプロセスを改善します。Security の Gemini と、サービスに組み込まれた固有の AI 機能を使用できます。 Google Cloud

これらの AI 機能は、セキュリティ ライフサイクルのすべての段階で支援を提供することで、セキュリティを変革できます。たとえば、AI を使用して次のことを行えます。

  • リバース エンジニアリングなしで、潜在的に悪意のあるコードを分析して説明します。
  • サイバーセキュリティ担当者の反復作業を減らす。
  • 自然言語を使用してクエリを生成し、セキュリティ イベントデータを操作します。
  • コンテキスト情報を表示します。
  • 迅速な対応のための推奨事項を提示します。
  • イベントの修正を支援します。
  • 構成ミスや脆弱性に関する優先度の高いアラートを要約し、潜在的な影響をハイライトして、緩和策を提案します。

セキュリティの自主性のレベル

AI と自動化は、絶え間なく進化するサイバーセキュリティの脅威に対処する際に、セキュリティの成果を高めるのに役立ちます。セキュリティに AI を使用すると、脅威を検出して防止し、全体的なセキュリティ対策を強化するための高度な自律性を実現できます。Google では、セキュリティに AI を使用する場合の 4 つの自律性のレベルを定義しています。これらのレベルは、セキュリティ タスクの支援から最終的には主導まで、AI の役割の拡大を示しています。

  1. 手動: セキュリティ ライフサイクル全体で、人間がすべてのセキュリティ タスク(防止、検出、優先順位付け、対応)を実行します。
  2. アシスト: Gemini などの AI ツールは、情報の要約、分析情報の生成、推奨事項の作成によって、人間の生産性を高めます。
  3. 半自律型: 多くのセキュリティ タスクにおいて AI が主な責任を負い、必要な場合にのみ人間に委任します。
  4. 自律型: AI は、人間による介入を最小限に抑えながら、組織の目標と設定に基づいてセキュリティ ライフサイクルを推進する信頼できるアシスタントとして機能します。

推奨事項

以降のセクションでは、セキュリティに AI を使用する際の推奨事項について説明します。また、推奨事項が Google のセキュア AI フレームワーク(SAIF)のコア要素とどのように整合しているか、セキュリティの自主性のレベルとどのように関連しているかについても説明します。

AI による脅威の検出と対応の強化

この推奨事項は、次の重点分野に関連しています。

  • セキュリティ運用(SecOps)
  • ロギング、監査、モニタリング

AI は、大量のセキュリティ データを分析し、脅威行為者の動作に関する分析情報を提供できます。また、悪意のあるコードの分析を自動化することもできます。この推奨事項は、次の SAIF 要素に対応しています。

  • 検出機能と対応機能を拡張し、組織の脅威対策に AI を取り込む。
  • 防御を自動化し、既存および新規の脅威に対応する。

実装に応じて、この推奨事項は次のレベルの自動性に関連する場合があります。

  • 支援型: AI が脅威の分析と検出を支援します。
  • 半自律型: AI がセキュリティ タスクのより多くの責任を負います。

AI を使用して脅威アクターによる動作と悪質なコードを分析する Google Threat Intelligence は、この推奨事項の実装に役立ちます。

エキスパートと非エキスパートの両方のセキュリティを簡素化する

この推奨事項は、次の重点分野に関連しています。

  • セキュリティ運用(SecOps)
  • クラウドのガバナンス、リスク、コンプライアンス

AI を搭載したツールは、アラートを要約し、緩和策を推奨できます。これらの機能により、幅広い人員がセキュリティにアクセスできるようになります。この推奨事項は、次の SAIF 要素に対応しています。

  • 防御を自動化し、既存および新規の脅威に対応する。
  • プラットフォーム レベルの管理を調整し、組織全体で一貫したセキュリティを確保します。

実装に応じて、この推奨事項は次のレベルの自動性に関連する場合があります。

  • アシストあり: AI がセキュリティ情報のアクセス性を向上させます。
  • 半自律型: AI により、すべてのユーザーにとってセキュリティ対策をより効果的に行うことができます。

Security Command Center の Gemini は、構成ミスや脆弱性に関するアラートの概要を提供できます。

AI で時間のかかるセキュリティ タスクを自動化する

この推奨事項は、次の重点分野に関連しています。

  • インフラストラクチャのセキュリティ
  • セキュリティ運用(SecOps)
  • アプリケーションのセキュリティ

AI は、マルウェアの分析、セキュリティ ルールの生成、構成ミスの特定などのタスクを自動化できます。これらの機能により、セキュリティ チームの負荷を軽減し、応答時間を短縮できます。この推奨事項は、既存および新規の脅威に対応するために防御を自動化する SAIF 要素に沿っています。

実装に応じて、この推奨事項は次のレベルの自動性に関連する場合があります。

  • アシストあり: AI がタスクの自動化をサポートします。
  • 半自律型: AI がセキュリティ タスクの主要な責任を負い、必要な場合にのみ人間の支援を求めます。

Google SecOps の Gemini は、アナリストを支援し、関連するコンテキストを取得し、次のステップの推奨事項を提示することで、負荷の高いタスクを自動化できます。

リスク管理とガバナンス プロセスに AI を組み込む

この推奨事項は、次の重点分野(クラウドのガバナンス、リスク、コンプライアンス)に関連しています。

AI を使用して、モデル インベントリとリスク プロファイルを構築できます。また、AI を使用して、データ プライバシー、サイバーリスク、サードパーティ リスクに関するポリシーを実装することもできます。この推奨事項は、周囲のビジネス プロセスにおける AI システムのリスクをコンテキスト化する SAIF 要素に対応しています。

実装によっては、この推奨事項が準自律レベルの自動性に関連する場合があります。このレベルでは、AI はプロセスを実行するセキュリティ エージェントをオーケストレートして、カスタムのセキュリティ目標を達成できます。

AI システムの安全な開発手法を導入する

この推奨事項は、次の重点分野に関連しています。

  • アプリケーションのセキュリティ
  • AI と ML のセキュリティ

AI は、安全なコーディング、トレーニング データのクリーンアップ、ツールとアーティファクトの検証に使用できます。この推奨事項は、強固なセキュリティ基盤を AI エコシステムに拡大する SAIF 要素に対応しています。

この推奨事項は、セキュリティに AI を効果的に使用するには、安全な AI システムを構築する必要があるため、セキュリティの自動化のすべてのレベルに関連する可能性があります。この推奨事項は、セキュリティ対策が AI によって補完される「支援」レベルに最も関連しています。

この推奨事項を実装するには、AI アーティファクトの ソフトウェア アーティファクトのサプライチェーン レベル(SLSA)ガイドラインに沿って、検証済みのコンテナ イメージを使用します。