安全 AI 框架 (SAIF) 和 Google Cloud

GShield

安全 AI 框架 (SAIF) 和 Google Cloud

安全 AI 框架 (SAIF) 和 Google Cloud

安全 AI 框架 (SAIF) 为组织提供了指导来确保 AI 系统的安全。

Google 创建了 SAIF.google,其中包括 SAIF 风险自我评估,以支持在组织中实现 SAIF,从而有助于安全地构建和部署 AI 系统。

下面我们将了解 SAIF 的角度介绍 Google Cloud Security 产品组合,并说明我们如何利用各种云解决方案和控制机制帮助您的组织降低潜在的 AI 风险。

工作方式

希望应对 SAIF 风险报告中发现的风险?立即开始使用。

常见用途

数据中毒

作为 Google Cloud 对安全承诺的一部分,我们的基础模型具有广泛的访问权限控制机制来防止未经授权的复制或读取,以及先进的检测功能以监控未经授权的操作。

Google Cloud 还提供客户可在我们的平台上配置的控制机制,以保护他们使用我们的模型或您自己的第三方服务。组织政策和 VPC Service Controls 可防止数据渗漏,同时通过精细的 Identity and Access Management (IAM) 控制来防止未经授权的访问。

详细了解 Google Cloud 帮助客户保护其数据的方式:

  • VPC Service Controls - 为您的云资源、敏感数据和网络(包括 Vertex AI 专用政策)创建隔离边界,以防止数据渗漏。
  • 提供安全措施,强制规定通过组织政策服务允许或拒绝哪些资源配置。
  • 使用 Vertex AI Model Registry 整理、跟踪和管理机器学习模型的生命周期。
  • 数据安全状况管理 - 通过访问权限控制和流控制政策管理模型、数据集和相关机器学习制品,以确保安全性、隐私权和合规性。
  • 机密计算提供支持的机密 AI 通过机密性、完整性以及 CPU 与 GPU 之间的和隔离性扩展了基于硬件的数据和模型保护功能,从而能够加速对 AI 和机器学习至关重要的工作负载。我们最近宣布推出了两个新的机密计算产品,这些产品专门用于保护 AI/机器学习工作负载的隐私和机密性:由 NVIDIA H100 Tensor Core GPU 提供支持的机密虚拟机,以及支持 Intel Advanced Matrix Extensions (Intel AMX) 的机密虚拟机。了解详情
  • Google Privileged Access Management:利用 Access ApprovalAccess TransparencyKey Access Justifications 确保对您的数据和加密密钥访问的信任。Google 会分享 Google 员工提出的客户数据访问权限请求,让客户能够要求对云服务提供商数据访问权限(包括 AI 工作负载)进行明确控制(客户作为多方审批者的访问权限审批),或根据理由以加密方式强制执行的 (Key Access Justifications) 控制。加密验证和详细日志可保证完全的透明度和控制,让 Google 对您的敏感数据(包括 AI 相关数据)的处理方式建立信任。

    作为 Google Cloud 对安全承诺的一部分,我们的基础模型具有广泛的访问权限控制机制来防止未经授权的复制或读取,以及先进的检测功能以监控未经授权的操作。

    Google Cloud 还提供客户可在我们的平台上配置的控制机制,以保护他们使用我们的模型或您自己的第三方服务。组织政策和 VPC Service Controls 可防止数据渗漏,同时通过精细的 Identity and Access Management (IAM) 控制来防止未经授权的访问。

    详细了解 Google Cloud 帮助客户保护其数据的方式:

    • VPC Service Controls - 为您的云资源、敏感数据和网络(包括 Vertex AI 专用政策)创建隔离边界,以防止数据渗漏。
    • 提供安全措施,强制规定通过组织政策服务允许或拒绝哪些资源配置。
    • 使用 Vertex AI Model Registry 整理、跟踪和管理机器学习模型的生命周期。
    • 数据安全状况管理 - 通过访问权限控制和流控制政策管理模型、数据集和相关机器学习制品,以确保安全性、隐私权和合规性。
    • 机密计算提供支持的机密 AI 通过机密性、完整性以及 CPU 与 GPU 之间的和隔离性扩展了基于硬件的数据和模型保护功能,从而能够加速对 AI 和机器学习至关重要的工作负载。我们最近宣布推出了两个新的机密计算产品,这些产品专门用于保护 AI/机器学习工作负载的隐私和机密性:由 NVIDIA H100 Tensor Core GPU 提供支持的机密虚拟机,以及支持 Intel Advanced Matrix Extensions (Intel AMX) 的机密虚拟机。了解详情
    • Google Privileged Access Management:利用 Access ApprovalAccess TransparencyKey Access Justifications 确保对您的数据和加密密钥访问的信任。Google 会分享 Google 员工提出的客户数据访问权限请求,让客户能够要求对云服务提供商数据访问权限(包括 AI 工作负载)进行明确控制(客户作为多方审批者的访问权限审批),或根据理由以加密方式强制执行的 (Key Access Justifications) 控制。加密验证和详细日志可保证完全的透明度和控制,让 Google 对您的敏感数据(包括 AI 相关数据)的处理方式建立信任。

      需要更多支持应对模型泄露、模型来源篡改和数据中毒等 AI 风险吗?

      Google Cloud 咨询服务可帮助您在模型和数据访问权限控制方面实现可靠的 AI 安全状况

      • 安全的云基础:建立强大、安全的基础设施基础,并提供运行 AI 工作负载所需的保护措施。
      • 生成式 AI 安全加速器:向 Google 的 AI 安全专家学习,了解如何实施 Google 的安全 AI 框架,以保护生成式 AI 工作负载免受 AI 所特有的风险。
      • 安全加固:使用基础设施即代码 (IaC) 实现安全的设计和端到端 AI 服务部署。
      • 高级威胁模拟:在独立的 Google Cloud 环境中模拟真实的 AI 威胁,以培训安全团队并评估其应对安全事件的就绪情况。

      与 Google Cloud 咨询服务联系

      Mandiant 专家合作,帮助您安全地利用 AI。

      • 针对 AI 的红队测试:验证保护 AI 系统的防御机制,评估您检测和应对涉及 AI 系统的主动攻击的能力。
      • 确保安全使用 AI:评估基于 AI 模型构建的架构、数据防御措施和应用,并使用安全框架开发威胁模型。

      与 Mandiant 安全专家联系


      想知道此风险类别与哪些 SAIF 风险自我评估问题有关?

      • 您能否检测、移除和修复训练、调优或评估数据中的恶意或意外更改?
      • 您是否有包含所有模型、数据集(用于训练、调优或评估)以及相关机器学习工件(例如代码)的完整清单?
      • 您是否对所有模型、数据集和相关机器学习制品实施强大的访问权限控制,以最大限度地减少、检测和防止未经授权的读取或复制?
      • 您能否确保在模型开发和部署期间,如果不进行检测,用于训练、调优或评估模型的所有数据、模型和代码都不会被篡改?
      • 开发和部署模型时使用的框架、库、软件系统和硬件组件是否会针对安全漏洞进行分析并加以保护?
      进行 SAIF 风险自我评估

        拒绝机器学习服务

        安全性是 Google Cloud 的关键租户,我们采取纵深防御方法。作为我们强有力的措施的一部分,我们有强大的能力来防范分布式拒绝服务攻击 (DDoS) 等服务中断。我们还提供额外的控制措施,可供客户通过 Cloud Armor 防范此类 DDoS 攻击和应用层攻击。

        我们的内置安全和风险管理解决方案 Security Command Center 可通过预防性控制措施和检测控制措施来保护 Vertex AI 应用。这包括响应 Vertex AI 安全事件和攻击路径模拟,以模拟真实攻击者访问和损害 Vertex AI 工作负载的方式。   

        对于 AI 应用,客户还可以使用 Model Armor 检查、路由和保护基础模型的提示和回答。它可以帮助客户降低提示注入、越狱、恶意内容和敏感数据泄露等风险。Model Armor 将与整个 Google Cloud 的产品(包括 Vertex AI)集成。如果您想详细了解如何抢先体验 Model Armor,可以在此处注册或观看我们的点播视频


          安全性是 Google Cloud 的关键租户,我们采取纵深防御方法。作为我们强有力的措施的一部分,我们有强大的能力来防范分布式拒绝服务攻击 (DDoS) 等服务中断。我们还提供额外的控制措施,可供客户通过 Cloud Armor 防范此类 DDoS 攻击和应用层攻击。

          我们的内置安全和风险管理解决方案 Security Command Center 可通过预防性控制措施和检测控制措施来保护 Vertex AI 应用。这包括响应 Vertex AI 安全事件和攻击路径模拟,以模拟真实攻击者访问和损害 Vertex AI 工作负载的方式。   

          对于 AI 应用,客户还可以使用 Model Armor 检查、路由和保护基础模型的提示和回答。它可以帮助客户降低提示注入、越狱、恶意内容和敏感数据泄露等风险。Model Armor 将与整个 Google Cloud 的产品(包括 Vertex AI)集成。如果您想详细了解如何抢先体验 Model Armor,可以在此处注册或观看我们的点播视频


            需要额外的支持来解决 AI 风险(例如机器学习服务拒绝和模型逆向工程)?

            Mandiant 专家合作,安全地利用 AI。

            • 针对 AI 的红队测试:验证保护 AI 系统的防御机制,评估您检测和应对涉及 AI 系统的主动攻击的能力。
            • 确保安全使用 AI:评估基于 AI 模型构建的架构、数据防御措施和应用,并使用安全框架开发威胁模型。

            与 Mandiant 安全专家联系


            想知道此风险类别与哪些 SAIF 风险自我评估问题有关?

            • 您是否保护您的生成式 AI 应用和模型,防范来自用户账号、设备或 API 的大规模恶意查询?
            进行 SAIF 风险自我评估

              利用 Google Cloud 强化 AI 安全状况

              想要了解确保 AI 安全的独特之处?探索 AI 与传统软件开发之间的安全差异。

              需要为您的组织开启 AI 对话?不妨从今天开始,了解首席信息安全官 (CISO) 应该提出并解答的七个关键问题,以便安全地使用 AI 并利用其安全优势。

              生成式 AI、隐私保护和 Google Cloud:准备好应对 AI 数据组件了吗?详细了解 Google Cloud 在开发生成式 AI 服务时采取的隐私保护和数据保护方法。