安全 AI 架構 (SAIF) 和 Google Cloud

GShield

安全 AI 架構 (SAIF) 和 Google Cloud

安全 AI 架構 (SAIF) 和 Google Cloud

安全 AI 架構 (SAIF) 可協助機構保護 AI 系統。

Google 打造了 SAIF.google,其中包含 SAIF 風險自我評估 ,可協助機構導入 SAIF,協助以安全的方式建構及部署 AI 系統。

以下將從 SAIF 的角度檢視 Google Cloud 安全性產品組合,並說明我們如何協助貴機構利用各種雲端解決方案和控管機制降低潛在的 AI 風險。

運作方式

想要解決 SAIF 風險報告中列出的風險嗎?立即開始使用。

常見用途

資料汙染

Google Cloud 致力於確保安全性,我們的基礎模型具備廣泛的存取控管設定,可防範未經授權的複製或讀取行為,並且提供最先進的偵測功能,用於監控是否有未經授權的動作。

Google Cloud 也提供控制選項,客戶可以在我們的平台上進行設定,為 Google 模型或第三方服務的使用方式提供防護。組織政策和 VPC Service Controls 可防止資料竊取,並提供精細的身分與存取權管理 (IAM) 控制項,可防止未經授權的存取行為。

進一步瞭解 Google Cloud 如何協助客戶保護資料:

  • VPC Service Controls:為雲端資源、機密資料和網路建立隔離 perimeter (包括 Vertex AI 專屬政策),防範資料竊取行為。
  • 提供安全防護機制,強制規定機構政策服務允許或拒絕哪些資源設定。
  • 運用 Vertex AI Model Registry 整理、追蹤及管理機器學習模型的生命週期。
  • 資料安全防護機制管理:透過存取權和流量控制政策管理模型、資料集和相關機器學習構件,以滿足安全性、隱私權和法規遵循需求。
  • Confidential AI 採用機密運算技術,能以機密性、完整性,以及從 CPU 隔離至 GPU 的方式來保護硬體資料和模型,進而加速處理對 AI 和機器學習至關重要的工作負載。我們最近宣布推出兩項全新機密運算產品,特別用來保護 AI/機器學習工作負載的隱私權和機密性:採用 NVIDIA H100 Tensor 核心 GPU 技術的 Confidential VM,以及支援 Intel Advanced Matrix Extensions (Intel AMX) 的 Confidential VM。瞭解詳情
  • Google Privileged Access Manager:運用存取權核准資料存取透明化控管機制金鑰存取依據,安全地信任您的資料和加密金鑰存取權。Google 會分享 Google 員工提出的客戶資料存取要求,讓客戶能明確要求 (使客戶成為多方核准者的存取權核准),客戶也可針對雲端服務供應商的資料存取 (包括 AI 工作負載) 以密碼方式強制執行要求原因的控管機制 (金鑰存取依據)。加密編譯驗證和詳細記錄可確保完整透明度與控管,對 Google 處理機密資料 (包括 AI 相關資料) 建立信任。

    Google Cloud 致力於確保安全性,我們的基礎模型具備廣泛的存取控管設定,可防範未經授權的複製或讀取行為,並且提供最先進的偵測功能,用於監控是否有未經授權的動作。

    Google Cloud 也提供控制選項,客戶可以在我們的平台上進行設定,為 Google 模型或第三方服務的使用方式提供防護。組織政策和 VPC Service Controls 可防止資料竊取,並提供精細的身分與存取權管理 (IAM) 控制項,可防止未經授權的存取行為。

    進一步瞭解 Google Cloud 如何協助客戶保護資料:

    • VPC Service Controls:為雲端資源、機密資料和網路建立隔離 perimeter (包括 Vertex AI 專屬政策),防範資料竊取行為。
    • 提供安全防護機制,強制規定機構政策服務允許或拒絕哪些資源設定。
    • 運用 Vertex AI Model Registry 整理、追蹤及管理機器學習模型的生命週期。
    • 資料安全防護機制管理:透過存取權和流量控制政策管理模型、資料集和相關機器學習構件,以滿足安全性、隱私權和法規遵循需求。
    • Confidential AI 採用機密運算技術,能以機密性、完整性,以及從 CPU 隔離至 GPU 的方式來保護硬體資料和模型,進而加速處理對 AI 和機器學習至關重要的工作負載。我們最近宣布推出兩項全新機密運算產品,特別用來保護 AI/機器學習工作負載的隱私權和機密性:採用 NVIDIA H100 Tensor 核心 GPU 技術的 Confidential VM,以及支援 Intel Advanced Matrix Extensions (Intel AMX) 的 Confidential VM。瞭解詳情
    • Google Privileged Access Manager:運用存取權核准資料存取透明化控管機制金鑰存取依據,安全地信任您的資料和加密金鑰存取權。Google 會分享 Google 員工提出的客戶資料存取要求,讓客戶能明確要求 (使客戶成為多方核准者的存取權核准),客戶也可針對雲端服務供應商的資料存取 (包括 AI 工作負載) 以密碼方式強制執行要求原因的控管機制 (金鑰存取依據)。加密編譯驗證和詳細記錄可確保完整透明度與控管,對 Google 處理機密資料 (包括 AI 相關資料) 建立信任。

      需要額外協助處理 AI 風險嗎?(例如竊取模型、竄改模型來源和資料汙染)

      Google Cloud 諮詢服務可協助您在模型和資料存取控管方面,建立強大的 AI 安全防護機制

      • 安全雲端基礎:運用必要保護措施建立穩固又安全的基礎架構基礎,以便執行 AI 工作負載。
      • 生成式 AI 安全性加速器:向 Google AI 資安專家學習,瞭解如何導入 Google 安全 AI 架構,保護生成式 AI 工作負載免受 AI 特有風險的影響。
      • 安全性強化:透過基礎架構即程式碼 (IaC) 確保設計與端對端 AI 服務部署的安全。
      • 進階威脅模擬:在獨立的 Google Cloud 環境中模擬真實的 AI 威脅,以訓練資安團隊,並評估團隊是否準備好因應安全事件。

      與 Google Cloud 諮詢服務團隊聯絡

      Mandiant 專家合作,協助您安全地使用 AI。

      • 「AI 紅隊演練」:驗證保護 AI 系統的防禦機制,評估是否能偵測和回應涉及 AI 系統的主動攻擊。
      • 保護 AI 技術應用:評估架構、資料防護機制和奠基於 AI 模型的應用程式,並使用安全性架構開發威脅模型。

      與 Mandiant 資安專家聯絡


      想知道這個風險類別與哪些 SAIF 風險自我評估問題相關嗎?

      • 您能否偵測、移除及修復訓練、調整或評估資料中的惡意或意外變更?
      • 您是否有所有模型、資料集 (用於訓練、調整或評估) 的完整清單,以及相關的機器學習構件 (例如程式碼)?
      • 對於所有模型、資料集和相關機器學習構件,您是否有完善的存取控管機制,以盡可能減少、偵測及防範未經授權的讀取或複製行為?
      • 您是否能確保在模型開發期間和部署期間,所有用於訓練、調整或評估模型的資料、模型和程式碼都不會在未偵測到的情況下遭到竄改?
      • 模型開發和部署過程中所使用的架構、程式庫、軟體系統和硬體元件,是否針對安全漏洞進行分析與防護?
      進行 SAIF 風險自我評估

        阻斷機器學習服務

        安全性是 Google Cloud 的關鍵要素,我們採取了縱深防禦措施。我們擁有強大的防護措施,可針對分散式阻斷攻擊 (DDoS) 等服務中斷情形提供安全防護。我們也提供其他控管機制,讓客戶能透過 Cloud Armor 防範這類 DDoS 和應用程式層樣式攻擊。

        我們的內建安全性與風險管理解決方案 Security Command Center,透過預防性和偵測性控管機制保護 Vertex AI 應用程式。包括回應 Vertex AI 安全性事件,以及攻擊路徑模擬,模擬實際攻擊者存取及入侵 Vertex AI 工作負載的方式。   

        針對 AI 應用程式,客戶還可以使用 Model Armor 檢查、轉送及保護基礎模型的提示和回應。這項技術可協助客戶減輕風險,例如提示注入、越獄、惡意內容和機密資料外洩等。Model Armor 會與 Google Cloud 中的產品整合,包括 Vertex AI。如要進一步瞭解如何搶先體驗 Model Armor,可以前往這裡註冊,或是觀看隨選影片


          安全性是 Google Cloud 的關鍵要素,我們採取了縱深防禦措施。我們擁有強大的防護措施,可針對分散式阻斷攻擊 (DDoS) 等服務中斷情形提供安全防護。我們也提供其他控管機制,讓客戶能透過 Cloud Armor 防範這類 DDoS 和應用程式層樣式攻擊。

          我們的內建安全性與風險管理解決方案 Security Command Center,透過預防性和偵測性控管機制保護 Vertex AI 應用程式。包括回應 Vertex AI 安全性事件,以及攻擊路徑模擬,模擬實際攻擊者存取及入侵 Vertex AI 工作負載的方式。   

          針對 AI 應用程式,客戶還可以使用 Model Armor 檢查、轉送及保護基礎模型的提示和回應。這項技術可協助客戶減輕風險,例如提示注入、越獄、惡意內容和機密資料外洩等。Model Armor 會與 Google Cloud 中的產品整合,包括 Vertex AI。如要進一步瞭解如何搶先體驗 Model Armor,可以前往這裡註冊,或是觀看隨選影片


            需要額外協助處理 AI 風險嗎?(例如阻斷機器學習服務和模型反向工程)

            Mandiant 專家合作,安全地使用 AI。

            • 「AI 紅隊演練」:驗證保護 AI 系統的防禦機制,評估是否能偵測和回應涉及 AI 系統的主動攻擊。
            • 保護 AI 技術應用:評估架構、資料防護機制和奠基於 AI 模型的應用程式,並使用安全性架構開發威脅模型。

            與 Mandiant 資安專家聯絡


            想知道這個風險類別與哪些 SAIF 風險自我評估問題相關嗎?

            • 您會保護生成式 AI 應用程式和模型,防範來自使用者帳戶、裝置或 API 的大規模惡意查詢嗎?
            進行 SAIF 風險自我評估

              運用 Google Cloud 強化 AI 安全防護機制

              您想知道保護 AI 為何這麼特別嗎?探索 AI 與傳統軟體開發之間的安全性差異。

              需要為貴機構開啟 AI 對話嗎?歡迎立即開始,取得資安長應思考的 7 個關鍵問題和回答,瞭解如何安全地使用 AI 並發揮其安全防護優勢。

              生成式 AI、隱私權和 Google Cloud:準備好處理 AI 資料元件了嗎?進一步瞭解 Google Cloud 在開發生成式 AI 服務時,如何保護隱私權與資料。