コンテンツに移動
セキュリティ & アイデンティティ

Cloud CISO の視点: 安全な AI の利用を成功させるための 5 つのヒント

2025年4月15日
https://storage.googleapis.com/gweb-cloudblog-publish/images/Cloud_CISO_Perspectives_header_4_Blue.max-2500x2500.png
Phil Venables

VP, TI Security & CISO, Google Cloud

Royal Hansen

VP, Engineering for Privacy, Safety, and Security

Get original CISO insights in your inbox

The latest on security from Google Cloud's Office of the CISO, twice a month.

Subscribe

※この投稿は米国時間 2025 年 3 月 19 日に、Google Cloud blog に投稿されたものの抄訳です。

2025 年 3 月最初の「Cloud CISO の視点」をお読みいただきありがとうございます。本日は、エンジニアリング担当バイス プレジデントの Royal Hansen と、CISO オフィスのシニア ディレクターである Nick Godfrey が、Security Command Center の新機能 AI Protection が AI のセキュリティ確保に対する Google の全体的なアプローチとどのように合致するのかについて説明します。また、組織が AI の安全な利用を成功させるための 5 つのヒントもご紹介します。

これまでのすべての「Cloud CISO の視点」と同様、このニュースレターのコンテンツは Google Cloud 公式ブログに投稿されます。このニュースレターをウェブサイトでご覧になっており、メール版の受信をご希望の方は、こちらからご登録ください。

--Google Cloud、TI セキュリティ担当 VP 兼 CISO、Phil Venables

組織において安全な AI を整備するための 5 つのヒント

執筆者: エンジニアリング担当バイス プレジデント Royal Hansen、CISO オフィス シニア ディレクター Nick Godfrey

何世紀も前から伝えられている英語のことわざ「The cobbler's children have no shoes(靴屋の子どもには靴がない)」は、他人に気を配りすぎて自分自身を顧みる余裕がない勤勉な労働者を言い表しています。この格言は、セキュリティと AI にも当てはまります。なぜなら、セキュリティ防御側は、人々が AI を安全に使用できるように指南しますが、セキュリティ防御側自身も、防御を強化するために AI を使用すべきだからです。

https://storage.googleapis.com/gweb-cloudblog-publish/images/Royal_Hansen_headshot_2.max-1200x1200.jpg

今月、Google Cloud は、Security Command Center に AI Protection を導入しました。これは、セキュリティ防御側向けの新しい AI リスク管理機能です。AI Protection は次のような機能を提供します。

  • 環境内の AI インベントリの検出とその潜在的な脆弱性の評価
  • AI アセットの保護(制御、ポリシー、ガードレール)
  • AI システムに対する脅威の管理(検出、調査、対応)

すべての機能強化についてはこちらをご覧ください。Google は、お客様が「適切な靴を使用できる」ように努めており、このことをお客様に知っておいてほしいと考えています。具体的には、Google は、AI を安全に構築する方法に関するガイドラインを策定するとともに、AI がお客様の防御力を確実に強化できるように取り組んでいます。

https://storage.googleapis.com/gweb-cloudblog-publish/images/Nick_Godfrey.max-600x600.png

Google は、10 年以上にわたりセキュア バイ デザインと、セキュア バイ デフォルトの原則に従ってプロダクトの開発に取り組んでおり、AI ツールの開発についてもこの方針は変わりません。Google のセキュア AI フレームワーク(SAIF)は、すべてのユーザーにメリットをもたらし、特に、デベロッパーがエージェントを構築してデプロイする際に役立つように設計されています。

一方、Google は、AI 業界のリーダーや同業者が参加する Coalition for Secure AI(CoSAI)など、業界を導く取り組みの創設メンバーでもあります。CoSAI は SAIF を使用して、安全に AI を開発するための主要な課題(AI システムのサプライ チェーンのセキュリティ、サイバーセキュリティ環境の変化に対応するためのセキュリティ防御側の体制整備、AI セキュリティ ガバナンス)に重点的に取り組んでいます。

これにより過去 10 年間でサイバーセキュリティにおいて大きな進歩を遂げており、そこで得た知見は、当然 Google のサービスやソリューションに適用されます。

Google Threat Intelligence グループの研究者がまとめた生成 AI の敵対的な不正使用に関する最近のレポートによると、脅威アクターが AI ツールを使用して目的を達成しようとしている一方で、Gemini のガードレールが新たな機能の開発を阻止していることを発見したとのことです。

「プロダクトの安全性を重視する」ということは、「新たな機能にセキュリティを組み込んでいく」ということを意味します。つまり、コーディング、メール、要約機能のいずれにおいても、セキュリティが前提として組み込まれたものに進化していくということです。同様に、生成 AI エージェントの場合はタスクの委任機能が強化され、デプロイ エージェントの場合はデプロイとパッチの安全性が前提となっていきます。

しかしながら、「今後も脅威アクターが新たな AI テクノロジーを取り入れて、AI を活用した攻撃を起こす可能性は非常に高い」と、レポートの著者は結論づけています。現在の基盤モデルは、脅威アクターに画期的な能力をもたらす「可能性は低い」ものの、「AI の展望は常に変化し続けており、新しい AI モデルやエージェント システムが毎日出現している」と指摘しています。

セキュリティ防御側も進化を遂げています。たとえば、レッドチームがセキュリティ防御側の模擬対戦相手となるといった方法は長年にわたり実践されており、セキュリティ防御側が弱点を探ったり、見逃しがちな脆弱性を見つけたりするのに役立っています。レッドチームは AI テクノロジーの保護においても中心的な役割を担っており、2023 年 7 月に AI レッドチームに関する初のレポートが公開されました。

進化するサイバー攻撃やリスクに対する復元力および強度を高めるため、AI の活用を進めると同時に、このようなセキュリティ意識をより広範に浸透させることが求められます。「プロダクトの安全性を重視する」ということは、「新たな機能にセキュリティを組み込んでいく」ということを意味します。つまり、コーディング、メール、要約機能のいずれにおいても、セキュリティが前提として組み込まれたものに進化していくということです。同様に、生成 AI エージェントの場合はタスクの委任機能が強化され、デプロイ エージェントの場合はデプロイとパッチの安全性が前提となっていきます。

今後、組織において安全な AI を整備できるよう、5 つのヒントをご紹介します。

  1. 強力な AI ガバナンスを実装する: ガバナンスを適切に整備することで、組織内の各方面の専門家が、生成 AI のイニシアティブを包括的かつプログラマティックに、繰り返し可能な形式でレビューできるようになり、その結果プロセス全体を通じて影響や改善をもたらすことが可能となります。
  2. 高品質なデータを使用する: 組織の既存のデータ ガバナンス プログラムに密接に沿いながら、堅牢なデータ ガバナンス手順を実装します。
  3. アクセスを制御する: 厳格なロールベース アクセス制御を取り入れて、最小権限の原則を適用します。AI のアクセスを必要なデータのみに制限することで、データ侵害や不正なデータ漏洩のリスクを軽減し、顧客の個人情報や金融情報をより安全に保護できます。
  4. 脆弱性の継承に対処する: 脆弱性の継承に伴うリスクを軽減するための措置を講じます。具体的には、サードパーティの AI モデルやファインチューニングされた AI モデルをシステムに組み込む前に、デュー デリジェンスを実施します。
  5. 社内 AI ツールのリスクを軽減する: 一般向けの AI ツールと社内向けの AI ツールの両方に、一貫したセキュリティ対策を適用します。具体的には、利用者にかかわらず、すべての AI 実装において、堅牢なアクセス制御、データ暗号化、定期的なセキュリティ評価を行います。

現在のペースで AI イノベーションが進めば、新たな脅威を予期したり、これに対処したりすることがより効果的にできるようになるでしょう。たとえば Google はポスト量子暗号に重点的に取り組んでおり、小さくも増大傾向にあるセキュリティ上の重要な脅威に対処することを可能にしています。

セキュリティ専門家はさらに、AI を活用することで、次の大きなセキュリティ目標に向けた調査に本格的に着手することが可能となります。たとえば、「ランサムウェアを完全に排除できるか?」「侵入テストよりも先回りして、自らの脆弱性を見つけてパッチを適用するよう自己修復型アプリケーションを開発できないか?」「管理者が過剰な権限を付与するのを防ぐスーパーバイザー エージェントを作成できないか?」といった課題に挑戦できます。

Google Cloud がお客様をどのようにサポートし、AI に伴うリスクに対する防御の強化に AI をどう活用しているかについて詳しくは、CISO インサイトハブをご覧ください。

その他の最新情報

セキュリティ チームからこれまでに届いた今月のアップデート、プロダクト、サービス、リソースに関する最新情報は以下のとおりです。

  • Next ‘25 でユニークな没入型セキュリティ体験をお確かめください: Google Cloud Next が、セキュリティの専門家だけでなくセキュリティに関心のある人にとっても必見のイベントとなる理由について説明します。詳細はこちら
  • 究極のインサイダー脅威: 北朝鮮の IT ワーカー: 雇用主は、北朝鮮の IT ワーカーのリスクを軽減するために具体的な措置を講じることができます。ビジネス リーダーが知っておくべきポイントをご紹介します。詳細はこちら
  • Google がレッドチームを広く展開する方法: 優秀なレッドチームは、セキュリティの模擬攻防戦におけるクリエイティブな対戦相手となり、セキュリティの弱点を探るために役立ちます。Google は、次のような方法でレッドチームを広く展開しています。詳細はこちら
  • Project Shield で DDoS 対策の登録、設定、自動化が容易に: 脆弱性のある組織が Project Shield に申し込み、保護対策を設定し、防御を自動化することが、これまで以上に容易になりました。その方法をご紹介します。詳細はこちら
  • AI Protection の発表: AI 時代のセキュリティ: Google Cloud の新しい AI Protection は、プラットフォームを問わず、複数のクラウドやモデルを通じて AI ワークロードとデータを保護します。お客様のチームが AI Protection をどのように活用できるのかをご紹介します。詳細はこちら
  • Google、2025 年の Forrester Wave で Data Security Platforms のリーダーに選出:「The Forrester Wave™: Data Security Platforms, Q1 2025」レポートで Google Cloud がリーダーに選出されました。詳細はこちら
  • 戦略的なジャーニー マップを使用してクラウド移行を変革する: 多くの大規模組織は、野心的な目標を掲げてモダナイゼーションの取り組みを開始しますが、セキュリティの問題によって軌道から外れてしまいます。こうした落とし穴を回避する方法について、Google が得た学びをいくつかご紹介します。詳細はこちら
  • SOC の測定: 2025 年に重視すべきこと: セキュリティ オペレーション センター(SOC)を設置したいと思うことと、実際に SOC を効果的に運用、運営することは別問題です。重要な SOC 指標についてご紹介します。詳細はこちら
  • 脆弱性報奨金プログラム: 2024 年を振り返って: 2024 年、Google は脆弱性報奨金プログラム全体を通じて、世界中の国の 600 人以上の研究者に 1,200 万ドル弱の報奨金を授与しました。昨年の同プログラムのハイライトをご紹介します。詳細はこちら

今月公開されたその他のセキュリティ関連の記事については、Google Cloud 公式ブログをご覧ください。

脅威インテリジェンスに関するニュース

  • 中国との関連が疑われるエスピオナージ アクター UNC3886 が Juniper ルーターを標的に: 昨年、Mandiant は Juniper Networks の Junos OS ルーターにデプロイされたカスタム バックドアを発見し、そのバックドアが中国との関連が疑われるエスピオナージ アクター UNC3886 によるものであると結論付けました。このアクティビティとマルウェアについて深堀りし、推奨事項と検出結果を提供します。詳細はこちら
  • TTD 命令エミュレーションのバグを深く掘り下げる: Microsoft の Time Travel Debugging(TTD)フレームワークにおいて、エミュレーション プロセスのわずかな不正確さが、セキュリティと信頼性に関する重大な問題につながる可能性があることについて詳しく調べています。詳細はこちら
  • garble で難読化されたバイナリ内の文字列の難読化解除: FLARE チームは、Go で記述され garble を使用して保護されたマルウェアによく遭遇します。garble の文字列変換と、それらを自動的に難読化解除するプロセスについて詳しく説明するとともに、リバース エンジニアリング プロセスを合理化するツールを紹介します。詳細はこちら
  • macOS への侵入における Rosetta 2 アーティファクト: 高度な脅威アクターが x86-64 でコンパイルされた macOS マルウェアを使用していることが確認されましたが、Rosetta 2(Apple シリコン搭載の macOS システムで x86-64 バイナリを実行するための Apple の変換テクノロジー)が、フォレンジック調査に役立つアーティファクトを生成していることがわかりました。詳細はこちら

今月公開されたその他の脅威インテリジェンス関連の記事については、Google Cloud 公式ブログをご覧ください。

注目の Google Cloud ポッドキャスト

  • 異なる複数の規制に対応するクラウド システムを設計する方法: Google Cloud プロダクト管理担当シニア ディレクターの Archana Ramamoorthy が、互いに矛盾する複数の法律の遵守が必要なシステムを構築する方法を説明します。Anton Chuvakin と Tim Peacock がホストを務めます。ポッドキャストを聴く
  • 異常検出と実際のクラウド セキュリティのための LLM: Sweet Security の AI 責任者である Yigael Berger 氏が、AI とセキュリティの現状を深く掘り下げ、AI に寄せられる期待と現実について Anton と Tim を相手に議論します。ポッドキャストを聴く
  • The Defender’s Advantage: 経営幹部と取締役会との会話: Imran Ahmad 氏は、Norton Rose Fulbright のシニア パートナーであり、カナダのテクノロジー責任者、カナダのサイバーセキュリティおよびデータ プライバシーの共同責任者でもあります。同氏が、ホストの Luke McNamara を相手に、変化および進化し続ける環境におけるサイバーリスクについて、経営幹部としての見解を語ります。ポッドキャストを聴く
  • The Defender’s Advantage: 2025 年の注目事項: Kelli Vanderlee、Kate Morgan、Jamie Collier が Luke を相手に、今年の新たな脅威の追跡を巡り、特に注目しているトレンドについて語ります。国家による侵入から、金銭目的のランサムウェア キャンペーンまでを取り上げます。ポッドキャストを聴く
  • バイナリの裏側: ピアノの調律とデバッグ - x64dbg のストーリー: x64dbg の作成者である Duncan Ogilvie 氏に、この人気の高い Windows デバッガが始まった経緯について伺います。ポッドキャストを聴く

月 2 回発行される「Cloud CISO の視点」をメールで受信するには、ニュースレター (英語) にご登録ください。次回も Google Cloud からセキュリティ関連の最新情報をお届けします。

-Google Cloud、TI セキュリティ担当 VP 兼 CISO、Phil Venables

-プライバシー、安全、セキュリティのエンジニアリング担当バイス プレジデント、Royal Hansen

投稿先