Google Cloud 架构完善框架安全支柱中的这一原则提供了相关建议,可帮助您保护 AI 系统的安全。这些建议与 Google 的安全 AI 框架 (SAIF) 相一致,该框架提供了一种切实可行的方法来解决 AI 系统的安全和风险问题。SAIF 是一个概念框架,旨在为负责任地构建和部署 AI 提供行业范围内的标准。
原则概览
为确保 AI 系统满足安全性、隐私保护和合规性要求,您必须采取全面的策略,从初始设计阶段开始,一直延伸到部署和运营阶段。您可以应用 SAIF 的六个核心要素来实现这一整体策略。
Google 利用 AI 来增强安全措施,例如识别威胁、自动执行安全任务和提高检测能力,同时在做出关键决策时始终有人参与。
Google 强调应采取协作方式来提升 AI 安全性。这种方法包括与客户、行业和政府合作,以增强 SAIF 指南并提供切实可行的资源。
以下各部分中汇总了实现此原则的建议:
安全使用 AI 的建议
如需安全地使用 AI,您需要同时采取基础安全控制措施和 AI 专用安全控制措施。本部分概述了相关建议,可帮助确保您的 AI 和 ML 部署满足组织的安全、隐私权和合规性要求。 如需简要了解 Google Cloud中针对 AI 和机器学习工作负载的架构原则和建议,请参阅 Well-Architected 框架中的 AI 和机器学习视角。
明确定义 AI 用途的目标和要求
此建议与以下重点领域相关:
- 云治理、风险与合规性
- AI 和机器学习安全性
此建议与 SAIF 要素(即结合周边业务流程背景评估 AI 系统风险)相符。在设计和改进 AI 系统时,请务必了解您的具体业务目标、风险和合规性要求。
确保数据安全并防止数据丢失或被误用
此建议与以下重点领域相关:
- 基础架构安全
- 身份和访问权限管理
- 数据安全
- 应用安全
- AI 和机器学习安全性
此建议与以下 SAIF 元素相符:
- 为 AI 生态系统奠定坚实的安全基础。此要素包括数据收集、存储、访问权限控制以及针对数据中毒的保护。
- 结合周边业务流程背景评估 AI 系统风险。强调数据安全性,以支持业务目标和合规性。
确保 AI 流水线安全可靠,免遭篡改
此建议与以下重点领域相关:
- 基础架构安全
- 身份和访问权限管理
- 数据安全
- 应用安全
- AI 和机器学习安全性
此建议与以下 SAIF 元素相符:
- 为 AI 生态系统奠定坚实的安全基础。作为建立安全 AI 系统的关键要素,请保护您的代码和模型制品。
- 调整控制措施,以加快反馈环。由于这对于缓解和突发事件响应非常重要,因此请跟踪您的资产和流水线运行情况。
使用安全工具和工件在安全系统上部署应用
此建议与以下重点领域相关:
- 基础架构安全
- 身份和访问权限管理
- 数据安全
- 应用安全
- AI 和机器学习安全性
在基于 AI 的应用中使用安全系统和经过验证的工具及工件,符合 SAIF 中关于为 AI 生态系统和供应链奠定坚实安全基础的要素。您可以通过以下步骤解决此建议所指出的问题:
- 为机器学习训练和部署实现安全的环境
- 使用经过验证的容器映像
- 应用软件工件的供应链级别 (SLSA) 指南
保护和监控输入
此建议与以下重点领域相关:
- 日志记录、审核和监控
- 安全运维
- AI 和机器学习安全性
此建议与 SAIF 元素(即扩展检测和响应能力,将 AI 引入组织的威胁防控体系)相符。为防止出现问题,必须管理生成式 AI 系统的提示、监控输入内容并控制用户访问权限。
AI 治理建议
本部分中的所有建议都与以下重点领域相关:云治理、风险和合规性。
Google Cloud 提供了一套强大的工具和服务,可用于构建负责任且合乎道德的 AI 系统。我们还提供了一套政策、程序和伦理考量框架,可为 AI 系统的开发、部署和使用提供指导。
正如我们的建议所反映的那样,Google 的 AI 治理方法遵循以下原则:
- 公平性
- 透明度
- 问责机制
- 隐私权
- 安全
使用 Fairness Indicators
Vertex AI 可以在数据收集或训练后评估过程中检测偏差。Vertex AI 提供模型评估指标(例如数据偏差和模型偏差),可帮助您评估模型是否存在偏差。
这些指标与不同类别(例如种族、性别和阶级)之间的公平性有关。不过,解读统计偏差并非易事,因为不同类别之间的差异可能并非偏差所致,也可能不是有害信号。
使用 Vertex Explainable AI
如需了解 AI 模型如何做出决策,请使用 Vertex Explainable AI。此功能可帮助您识别可能隐藏在模型逻辑中的潜在偏差。
此可解释性功能与 BigQuery ML 和 Vertex AI 集成,可提供基于特征的解释。您可以在 BigQuery ML 中执行可解释性分析,也可以在 Vertex AI 中注册模型,然后在 Vertex AI 中执行可解释性分析。
跟踪数据沿袭
跟踪 AI 系统中所用数据的来源和转换情况。这种跟踪有助于您了解数据的来源,并找出可能存在的偏差或错误来源。
数据沿袭是 Dataplex Universal Catalog 的一项功能,可让您跟踪数据在系统中的移动方式:数据来自何处、传递到何处以及对其应用了哪些转换。
明确责任
明确 AI 系统的开发、部署和结果责任。
使用 Cloud Logging 记录 AI 系统做出的关键事件和决策。日志提供审核轨迹,可帮助您了解系统性能并确定需要改进的方面。
使用 Error Reporting 系统地分析 AI 系统出现的错误。此分析可以揭示指向潜在偏差或模型需要进一步改进的方面的模式。
实现差分隐私
在模型训练期间,向数据添加噪声,以便难以识别单个数据点,但仍能让模型有效地学习。借助 BigQuery 中的 SQL,您可以使用差分隐私聚合来转换查询结果。