Cloud CISO の視点: リスク管理のための戦略的必須事項としての AI

Jeanette Manfra
VP, Head of Risk and Compliance, Google Cloud
Get original CISO insights in your inbox
The latest on security from Google Cloud's Office of the CISO, twice a month.
Subscribe※この投稿は米国時間 2025 年 11 月 1 日に、Google Cloud blog に投稿されたものの抄訳です。
2024 年 10 月、2 回目の投稿となる「Cloud CISO の視点」をご覧いただきありがとうございます。今回は、グローバル リスクおよびコンプライアンス担当シニア ディレクターの Jeanette Manfra が、リスク管理における AI の役割について考えを共有します。
これまでのすべての「Cloud CISO の視点」と同様、このニュースレターのコンテンツは Google Cloud 公式ブログに投稿されます。ニュースレターをウェブサイトでご覧になっていて、メール版の配信をご希望の場合は、こちらからご登録ください。
戦略的必須事項としての AI: リスク管理のモダナイゼーション
- Google Cloud、グローバル リスクおよびコンプライアンス担当シニア ディレクター Jeanette Manfra


AI は単なる技術のアップグレードではなく、リスク管理、セキュリティ、コンプライアンスをモダナイズするための戦略的要件です。組織が事後対応から、データドリブンな事前対応戦略へと根本的に移行するのに役立ちます。
予測リスク分析を可能にし、意思決定に正確かつタイムリーに情報を提供する AI システムは、リスク管理における理想的なソリューションです。ただし、導入は一様ではありません。多くの分野で大きな進歩があり、特に金融リスクのモデリングでは顕著です。他の分野では、さまざまな理由から分析の進歩を活用するのに苦労しています。
AI は単なる技術のアップグレードではなく、リスク管理、セキュリティ、コンプライアンスをモダナイズするための戦略的要件です。組織が事後対応から、データドリブンな事前対応戦略へと根本的に移行するのに役立ちます。
予測リスク分析を可能にし、意思決定に正確かつタイムリーに情報を提供する AI システムは、リスク管理における理想的なソリューションです。ただし、導入は一様ではありません。多くの分野で大きな進歩があり、特に金融リスクのモデリングでは顕著です。他の分野では、さまざまな理由から分析の進歩を活用するのに苦労しています。
私が重視しているのは、入力が変化するにつれてアジャイルに変化し、急速に成長する企業のニーズを満たす、統一されたリスク管理体制の統合です。リスク管理ライフサイクル全体で AI が役立つ主な分野は 4 つあります。
- リスクの特定: AI アルゴリズムは、さまざまなソースから得られた大量の構造化データと非構造化データを分析して、新たなリスクを示すパターンや異常を検出します。特に自然言語処理(NLP)は、テキストデータから分析情報を抽出するのに役立ち、規制の変更、顧客からの苦情、従業員からのフィードバックからリスクを特定するのに役立ちます。金融機関の場合、AI は規制に沿ったポリシーと手順を特定し、コンプライアンスのギャップを正確に指摘します。
- リスク評価: AI モデルは、予測分析を使用して、過去のデータと現在の傾向に基づいて潜在的なリスクを予測し、プロアクティブな管理を可能にします。さまざまなリスク シナリオのシミュレーションを実行して影響を評価し、意思決定を改善します。ML アルゴリズムは、新しいデータから継続的に学習するようにトレーニングできるため、リスク評価を動的に調整して精度を向上させることができます。
- リスクの軽減: AI を活用したシステムが開発されており、自動化された制御を実装して適用することで、特定されたリスクへの露出をほぼリアルタイムで軽減できます。リスク プロファイルとビジネス目標の変化に基づいて、最適な軽減戦略を提案します。
- リスクのモニタリングとレポート: AI を活用したシステムは継続的なモニタリングを提供し、異常なアクティビティや逸脱に対してアラートを生成できます。データの収集と分析を自動化し、詳細なレポートを生成して、不審な活動に関する報告書(SAR)の提出の自動化など、コンプライアンス レポートを改善します。
また、AI がリスク管理の主な用途でどのような価値を発揮しているかも追跡できます。
- サイバーセキュリティの脅威検出では、AI を活用したシステムが企業環境、ネットワーク トラフィック、ユーザー アクティビティをモニタリングし、検出を可能にします。異常を特定し、攻撃ベクトルを予測して、セキュリティを事後対応から事前対応に移行できます。
- 規制変更管理では、AI システムが規制文書や更新情報を確認し、変更点やその他の重要な詳細を平易な言葉で要約できます。
- 品質保証と品質管理では、コンプライアンス部門が AI を活用して、大規模な母集団サンプルを使用した二次レビューの実施などのタスクを支援することを検討しています。
組織と運用の課題
AI を実装するには、規制当局、従業員、経営幹部、その他の関係者から賛同と承認を得るために、慎重な計画とテストが必要です。取締役会も、AI の導入を導くうえで重要な役割を果たすことができます。逆に、組織全体のコミットメントが不足し、上級リーダーシップの関与がなければ、AI の有益な影響が制限される可能性があります。
組織が AI を導入する際には、一般的に 2 つアプローチのいずれかを選択します。AI ツールは既存のワークフローに統合できます。また、組織は AI を出発点として、ワークフローをゼロから変革し、AI をプロセスに不可欠な要素にすることも可能です。どちらも、最新のデータ集約型システム向けに設計されていない従来のインフラストラクチャを使用する場合、運用上の課題に直面することがよくあります。さらに、既存のセキュリティ ツールが断片化していると、脅威の状況を統合的に把握することが難しくなります。
組織は、連携の欠如によりリスク管理が断片化される可能性があるため、効果的な AI リスク管理を、より広範な企業リスク管理戦略に統合する必要があります。ビジネス リーダー、セキュリティ リーダー、取締役会は、必要に応じて文化的な変化に対応できる準備をしておくことが求められます。
また、AI ソリューションを効果的にデプロイ、管理、運用できる経験豊富なスペシャリストも大幅に不足しています。たとえば、AI セキュリティ ソリューションには、専門的な人材、継続的なトレーニング、インフラストラクチャへの投資が必要です。
AI は多くのタスクを自動化できます。ただし、自動化されたシステムに過度に依存すると、人間の判断や状況に応じた理解という重要な役割が損なわれ、AI システムが微妙な要素や状況固有の要素を考慮できない場合に不公平または有害な結果につながる可能性があります。AI コンプライアンスでは、人間の意思決定権限が最終的なものとして残るべきです。
組織が AI プロダクトやサービスをサードパーティのサプライヤーに依存している場合、AI を使用したリスクの測定と管理は、さらに複雑になる可能性があります。指標の相違、透明性の欠如、ユースケースの管理の不十分さなど、AI の使用を損なう可能性のある要素はすべて、サードパーティのデータと AI システムの障害に対する緊急時対応プロセスを十分に検討する必要があります。
包括的な AI リスク管理フレームワークの採用
組織は、連携の欠如によりリスク管理が断片化される可能性があるため、効果的な AI リスク管理を、より広範な企業リスク管理戦略に統合する必要があります。ビジネス リーダー、セキュリティ リーダー、取締役会は、必要に応じて文化的な変化に対応できる準備をしておくことが求められます。
多くの組織では、構造化された AI ガバナンスが欠けています。AI コンプライアンスとリスク管理を適切に実施するには、法務、データ ガバナンス、技術開発、サイバーセキュリティの各チームが連携する必要があります。組織には、構造化された包括的なアプローチが不可欠です。
Google Cloud のアプローチの中には、AI リスク管理をセキュア AI フレームワーク(SAIF)、NIST AI リスク管理フレームワーク(AI RMF)、ISO 42001 に合わせるというものがあります。NIST 以外にも、組織は ISO 31000 や Committee of Sponsoring Organizations(COSO)などの既存の企業リスク管理フレームワークに AI を統合して、自動化、スケーラビリティ、ほぼリアルタイムの機能を取り入れることで、その有効性を高めることができます。
信頼できる AI に対する Google Cloud のアプローチ
また、AI のリスク管理とコンプライアンスに対する包括的なアプローチも採用しています。Google は、以下の主要な領域に重点を置いています。
- AI に関する原則に沿って責任あるイノベーションを推進する。
- SAIF(ガイダンスはこちら)と Coalition for Secure AI(CoSAI)を通じて、セキュリティのベスト プラクティスを AI 特有のリスクにまで拡大する。
- リスクを特定、評価、軽減するための AI リスク評価手法を採用する。
- 生成 AI ワークロードの監査に、自動化された、スケーラブルで、エビデンスに基づくアプローチを開発して使用する。
- リスク評価とガバナンス評議会において人間による監視とコラボレーションを重視する。
さらに、説明可能性ツールを活用することで、AI の予測を理解・解釈し、潜在的なバイアスを評価します。加えて、マスキングやトークン化などのプライバシー保護技術を用いて、関連するプライバシー法を遵守します。AI が見逃す可能性のあるセキュリティ脆弱性については、継続的なモニタリングと監査を通じて対応します。また、AI の知識ギャップを埋めるためのトレーニング プログラムへの投資も重要です。さらに、データ サイエンティスト、リスク アナリスト、ドメイン エキスパートの間で「学際的なコラボレーション」を促進することも欠かせません。
AI は変革をもたらす力であり、前例のないレベルの予防的なリスク管理、セキュリティの強化、コンプライアンスの合理化を実現します。今後の取り組みには、構造化されたフレームワーク、倫理的な AI 設計、学際的なコラボレーション、人材とテクノロジーへの継続的な投資にまたがる、リーダーシップ主導の包括的なアプローチが必要です。進化するテクノロジーや規制に常に適応することは、競争上の優位性だけでなく、運用上の必要性でもあります。
リスク管理における AI の使用に関するガイダンスについては、CISO インサイト ハブをご覧ください。
その他の最新情報
セキュリティ チームからこれまでに届いた今月のアップデート、プロダクト、サービス、リソースに関する最新情報は以下のとおりです。
- Google の取り組み: サイバーセキュリティと防御のための AI エージェントの構築: Google では、AI エージェントについて議論する段階から、セキュリティのために AI エージェントを積極的に使用する段階に移行しました。Google のアプローチを形作るのに役立った 4 つの重要な教訓をご紹介します。詳細はこちら。
- Model Armor が AI アプリを保護する仕組み: Model Armor を使用すると、プロンプト インジェクションやジェイルブレイクから AI アプリを保護できます。その方法をご紹介します。詳細はこちら。
- reCAPTCHA でエージェント型ウェブの安全性を確保: Google Cloud は、エージェント型ウェブでの不正行為や悪用の防止は、本質的に顧客体験の簡素化につながるべきだと考えています。そのために、次のようなことを行っています。詳細はこちら。
- Mandiant Academy の新コース: 境界を保護するための実践的なトレーニング:「境界を保護する: 実践的なネットワーク拡充」では、ネットワーク トラフィック分析を強力で正確なセキュリティ アセットに変えるスキルを習得します。詳細はこちら。
- 量子安全な未来に備えるお客様を支援: Google は、10 年近くにわたり量子安全コンピューティングに取り組んできました。ここでは、転送中のデータ保護、デジタル署名、公開鍵基盤に関する最新情報をご紹介します。詳細はこちら。
- 2025 年 Gartner® Magic Quadrant™ のセキュリティ情報およびイベント管理部門で Google がリーダーに選出: Gartner は、2025 年 Gartner® Magic Quadrant™ のセキュリティ情報およびイベント管理部門(SIEM)において、Google をリーダーに認定しました。詳細はこちら。
- Cloud Armor が Forrester WAVE で「強豪」に選出、新機能がリリース: Cloud Armor の新機能により、より包括的なセキュリティ ポリシーと、きめ細かいネットワーク構成制御が可能になります。詳細はこちら。
- Google Cloud Parameter Manager の実践ガイド: Google Cloud Parameter Manager は、クラウドの主要な構成の不要な共有を減らすように設計されており、さまざまな種類のデータ形式に対応しています。詳細はこちら。
今月公開されたその他のセキュリティ関連の記事については、Google Cloud 公式ブログをご覧ください。
脅威インテリジェンスに関するニュース
- 公開空間に潜む EtherHiding(パート 1): 北朝鮮がブロックチェーンに国家のマルウェアを隠蔽: Google Threat Intelligence グループ(GTIG)と Mandiant は、北朝鮮の脅威アクター UNC5342 が「EtherHiding」を使用してマルウェアを配信し、暗号通貨の窃盗を容易にしていることを確認しました。国家レベルのアクターがこの手法を採用しているのを確認したのはこれが初めてです。EtherHiding は、パブリック ブロックチェーン上のトランザクションを利用して悪意のあるペイロードを保存および取得する手法であり、従来のテイクダウンやブロックリスト作成に対する優れた復元力で知られています。詳細はこちら。
- 公開空間に潜む EtherHiding(パート 2): UNC5142 による EtherHiding を用いたマルウェア配布の手法: 2023 年後半以降、UNC5142 は運用セキュリティを強化し、検出を回避するため、戦術、手法、手順(TTP)を大幅に進化させてきました。このグループは、侵害された WordPress ウェブサイトと BNB スマート チェーン上の EtherHiding を使用して、悪意のあるコンポーネントをスマート コントラクトに保存することを特徴としています。詳細はこちら。
- ロシア政府支援の COLDRIVER による新マルウェア: NGO の著名な代表者、政策顧問、反体制派を標的とすることで知られるロシア政府支援の脅威グループ COLDRIVER は、2025 年 5 月に GTIG が LOSTKEYS マルウェアを公表した後、すぐに活動を転換しました。わずか 5 日後には、新しいマルウェア ファミリーのデプロイを開始したのです。詳細はこちら。
- 親ロシアの情報工作がロシアのドローンのポーランド領空侵犯を利用: GTIG は、9 月に発生したロシアのドローンによるポーランド領空への侵入に関するストーリーを広めようとする親ロシア的な情報工作(IO)アクターの事例を複数確認しました。この情報工作活動は、以前にも観察された、ポーランド(より広範囲には、NATO 同盟国と西側諸国)を標的とした親ロシアの情報工作の事例と一致しているように見えます。詳細はこちら。
- ベトナムの攻撃者が偽の求人情報を悪用してマルウェアを配信・認証情報を窃取: GTIG は、ベトナムを拠点に活動する金銭目的の脅威アクターのクラスタを追跡しています。このクラスタは、正規のプラットフォームで偽の求人情報を利用して、デジタル広告やマーケティング業界の個人を標的にするものです。詳細はこちら。
今月公開されたその他の脅威インテリジェンス関連の記事については、Google Cloud 公式ブログをご覧ください。
注目の Google Cloud ポッドキャスト
- AI に対応できる SOC の構築に必要な要素とは: AI はセキュリティ チームにどのような影響を与えるのでしょうか。チームはパワーアップしたスーパーヒーローのように強化されるのか、それとも二面性を持ったジキルとハイドのような存在へと変化してしまうのか。Crogl の共同創業者兼 CEO である Monzy Merza 氏が、ホストの Anton Chuvakin と Tim Peacock とともに、AI の将来の可能性について議論します。ポッドキャストを聴く。
- 見せかけのセキュリティから現実的なセキュリティへ転換する: Google Cloud のインシデント対応担当ディレクターである Jibran Ilyas が、ホストの Anton と Tim とともに、インシデント対応の準備として有効でありながら、うまく実施されることが少ない「机上演習」の重要性について語ります。ポッドキャストを聴く。
- バイナリの裏側: Black Hat で堅牢なネットワークを構築する: Black Hat Network Operations Center(NOC)の運営にも携わる、Corelight のテクニカル マーケティング エンジニア、Mark Overholser 氏をゲストに迎え、ホストの Josh Stroschein が、セキュリティ カンファレンスを支える堅牢なネットワーク構築の哲学とその裏にある課題について語ります。ポッドキャストを聴く。
月に 2 回発行される「Cloud CISO の視点」のメール配信をご希望の場合は、ニュースレターにご登録ください。次回も Google Cloud からセキュリティ関連の最新情報をお届けします。
-Google Cloud、グローバル リスクおよびコンプライアンス担当シニア ディレクター Jeanette Manfra


