コンテンツに移動
セキュリティ & アイデンティティ

AI でデジタル セキュリティを強化する方法

2023年4月5日
https://storage.googleapis.com/gweb-cloudblog-publish/original_images/ai-blog_hero.gif
Google Cloud Japan Team

※この投稿は米国時間 2023 年 3 月 25 日に、Google Cloud blog に投稿されたものの抄訳です。

AI は変革の真っただ中にあり、テクノロジーによって実現可能なことを大きく変えつつあります。AI には、世界中のコミュニティ、企業、国の潜在的な能力を引き出し、有意義でポジティブな変革によって数十億の人々の生活をより良いものにする力があります。同様に、AI テクノロジーの進化に伴い、セキュリティ リスクを特定、軽減したり、リスクに対処したりする方法も大きく改善される可能性があります。

AI の進化の重要な局面へ

生成 AI の飛躍的な進歩により、人々のテクノロジーの使い方は根本的に変わりつつあります。Google Cloud では、デベロッパーや組織が常に最先端の AI テクノロジーを利用できるよう支援しています。その一環として、先日、Google Cloud AI ポートフォリオの新しい生成 AI 機能を発表しました。また、Google のサービスに責任を持って生成 AI を組み込むさまざまなプロダクトもリリースしています。

この取り組みの中核となっているのは、AI の原則です。Google は責任ある AI の実践をいち早く取り入れ、進化させてきました。こうした AI の原則は、Google のプロダクトを利用して安全にビジネスを構築し、成長させている世界中のお客様に対する継続的なコミットメントを示すものです。詳細については、AI の原則とその実践に関するブログをご覧ください。

Google は AI を活用して実世界の問題を解決してきた経験から、新しいテクノロジーが主流になったときにそれらを保護する能力を高めてきました。さらに、最近の AI の進歩を活用して最新かつ実用的な独自の脅威インテリジェンスを提供し、攻撃対象となる領域とインフラストラクチャ全体の可視性を強化しています。サイバー セキュリティの強化はもはや、人の手で対処できる問題ではなくなりました。これを踏まえ、Google は今後も一丸となって将来に備えるための取り組みを行っていきます。

Google の取り組みは、基本的な原則に根差しています。その原則とは、大胆かつ責任のある方法で AI をデプロイしなければ、AI がセキュリティ エコシステムに大きなプラスの影響をおよぼすことは不可能というものです。Google はそのために、たとえばデジタル免疫系に投資しています。これは、デジタルヘルスに対する以前のリスクから学んで適応することで、将来起こり得る攻撃をシステムで予測して保護する態勢を整える取り組みです。Google では、AI テクノロジーのメリットを最大限に活かしつつリスクを最小限に抑えるために、保護、大規模、進化という 3 つのアプローチを取っています。
https://storage.googleapis.com/gweb-cloudblog-publish/images/1_ai-blog_prong-secure.max-1600x1600.jpg

1. 保護: 組織が自ら AI システムをデプロイできるよう支援する

Google は、組織が安全な AI システムをデプロイできるように支援しています。AI システムに関する取り組みも、他のセキュリティ課題の場合と同様です。業界をリードするセキュリティ機能(通常はユーザーに見えない)を組み込み、ユーザーの安全を維持するためにデフォルトでセキュリティを適用しています。これには、技術的な制御、契約による保護、第三者による検証または証明も含まれます。

さらに、ML 用のプラットフォームとツールを標準化し、Google のデータ保護ツール、アクセス制御ツール、チェンジ マネージメント ツールを統合しています。Vertex AI(ML モデルや AI アプリケーションをトレーニングしてデプロイするための ML プラットフォーム)では、コードなしでモデルをトレーニングして、最小限の専門知識で幅広いモデリングの問題に対処できます。たとえば、よくあるミスを排除したり、構成ミスを最小限に抑えたり、攻撃対象を縮小したりすることが可能です。Vertex AI は、データの収集と分類を制御する Google の堅牢なデータ ガバナンス プラットフォームを補完するものであり、Google は従来のデータ処理の場合と同様のデータに対する責任を ML データでも果たすよう努めています。
https://storage.googleapis.com/gweb-cloudblog-publish/images/2_ai-blog_prong-scale.max-1600x1600.jpg

2. 大規模: AI の力を活用してセキュリティの成果を向上させる

Google は、組織がセキュリティの成果を大規模に向上させられるように、AI 搭載の最先端のプロダクトとサービスを継続的にリリースしています。セキュリティ コミュニティはこれまで、脅威に対して事後対応的なアプローチを取ってきました。こうした取り組みは重要ですが、持続可能なものではありません。現在の動的な脅威環境では、組織は攻撃のペースと範囲についていけず、防御側が太刀打ちできないと感じることも珍しくありません。

AI テクノロジーであらゆるセキュリティ問題が解決できるわけではありませんが、AI によってセキュリティに関する対等な競争条件を実現するユースケースがいくつか出現しています。

  • 異常で悪意のある挙動の検出

  • セキュリティ推奨事項の自動化

  • セキュリティ スペシャリストの生産性向上

現在 Google は、非常に動的なシステムに伴う人間のセキュリティ負担を軽減するために、さまざまなプロダクトに AI を活用しています。以下に、その例をご紹介します。

  • Gmail の AI 搭載迷惑メールフィルタ機能では、1 分あたり約 1,000 万件の迷惑メールをブロックしています。フィッシング攻撃やマルウェアの 99.9% は受信トレイに届く前にブロックされます。

  • Google のセーフ ブラウジングという業界をリードするサービスでは、Chrome ウェブブラウザ内で直接実行される AI 分類器を使用して、安全でないウェブサイトに関する警告をユーザーに表示しています。

  • IAM Recommender では、AI テクノロジーを活用して使用パターンを分析し、組織の環境に合わせてカスタマイズされた安全な IAM ポリシーを推奨しています。これらの IAM ポリシーを実装すれば、組織はより安全で費用対効果の高い方法でクラウドをデプロイして、最大限のパフォーマンスを実現できます。

  • Chronicle Security OperationsMandiant Automated Defense では、統合された推論機能と ML を使用して、重大なアラートの特定、偽陽性の抑止、セキュリティ イベントのスコア生成を行い、アラート疲れを軽減できるようにしています。

  • Breach Analytics for Chronicle では、ML を活用して Mandiant の IC スコア(データ サイエンスに基づく「悪意レベル」のスコアリング アルゴリズム)を計算しています。これにより無害の指標が除外され、チームは関連性と優先度の高い IOC に集中できるようになります。これらの IOC は Chronicle に保存されているセキュリティ データと照合され、さらに調査が必要なインシデントが特定されます。

  • reCAPTCHA EnterpriseWeb Risk では、教師なし学習モデルを使用して、不正アクセスされたアカウントや偽のアカウントのクラスタを検出しています。これにより、アナリストは調査時間を短縮してアカウントを保護し、リスクを最小限に抑えることができます。

  • Cloud Armor Adaptive Protection では、ML を活用してレイヤ 7 での脅威を自動的に検出しています。この機能のおかげで、報告された中で最大の DDoS 攻撃のうちの一つを検出してブロックすることができました。  

こうした機能を活用することで、組織はあらゆる場所でセキュリティの課題に Google の AI を適用できます。

https://storage.googleapis.com/gweb-cloudblog-publish/images/3_ai-blog_prong-evolve.max-1600x1600.jpg

3. 進化: 脅威の一歩先を行くために将来を見据えた考え方を取り入れる

Google は、脅威の一歩先を行くために常に進化を続けています。AI テクノロジーは新たなセキュリティ リスクをもたらすため、こうしたリスクを把握して、起こり得る攻撃から AI のデプロイをより効果的に保護できるよう取り組んでいます。Google は、攻撃者がやがて Google プロダクトで使用されている AI テクノロジーを見つけ出し、それを悪用して防御を迂回するだろうという基本前提のもと、将来を見据えて態勢を整えています。そのために、ポスト量子暗号などの重要トピックや、合成音声で音声確認を回避しようとする試みの検出方法の開発を進めています。さらに、ML システムと AI システムでの敵対的攻撃に関する調査の最新情報を把握し、お客様と連携しながら典型的な AI のやり取りとリスクに対処するためのベスト プラクティス、ツール、脅威モデルを開発しています。

Google は 2011 年に、社内ネットワークに対する潜在的な攻撃者を検出するために ML を活用し始めました。AI への投資により、現在は Google のレッドチームが内部システムに攻撃を仕掛けると、それを検出できるようになりました。引き続きリサーチチームと連携してレッドチームによる攻撃演習を実施し、最新の AI 開発手法を取り入れていきます。

継続的なサイクル

Google のアプローチは、最前線のインテリジェンスを AI によるクラウド イノベーションにつなげるための継続的サイクルを補強するものです。Google は今後も、デベロッパー、組織、そして広範なセキュリティ コミュニティと連携する中でこのトピックを取り上げて調査し、大胆かつ責任ある AI の機能を進化させていきます。

- Google Cloud、バイス プレジデント兼 CISO Phil Venables

- プライバシー、安全、セキュリティのエンジニアリング担当バイス プレジデント Royal Hansen

投稿先