Google Cloud 良好架构框架的安全支柱中提供了这一原则,旨在提供有助于保护 AI 系统的建议。这些建议与 Google 的安全 AI 框架 (SAIF) 保持一致,该框架提供了一种切实可行的方法来解决 AI 系统的安全和风险问题。SAIF 是一个概念框架,旨在提供业界标准,以负责任的方式构建和部署 AI。
原则概览
为了帮助确保您的 AI 系统符合安全、隐私和合规性要求,您必须采用从初始设计开始延伸到部署和运营的整体性策略。您可以通过应用 SAIF 的六大核心要素来实现这一整体策略。
Google 使用 AI 来加强安全措施,例如识别威胁、自动执行安全任务和改进检测能力,同时让人工参与关键决策。
Google 强调采用协作方式来提升 AI 安全性。这种方法包括与客户、行业和政府合作,以完善 SAIF 准则并提供实用且切实可行的资源。
有关实现此原则的建议分为以下几部分:
关于安全使用 AI 技术的建议
若要安全地使用 AI,您需要同时采用基础安全控制措施和 AI 专用安全控制措施。本部分简要介绍了一些建议,可确保您的 AI 和机器学习部署符合贵组织的安全性、隐私性和合规性要求。 如需简要了解 Google Cloud中针对 AI 和机器学习工作负载的架构原则和建议,请参阅“良好架构框架”中的 AI 和机器学习视角。
明确 AI 使用目标和要求
此建议与以下重点领域相关:
- 云治理、风险和合规性
- AI 和机器学习安全
此建议与 SAIF 要素“结合周边业务流程背景评估 AI 系统风险”相符。在设计和改进 AI 系统时,请务必了解您的具体业务目标、风险和合规性要求。
确保数据安全并防止丢失或误处理
此建议与以下重点领域相关:
- 基础架构安全
- 身份和访问权限管理
- 数据安全
- 应用安全
- AI 和机器学习安全
此建议符合以下 SAIF 元素:
- 为 AI 生态系统奠定坚实的安全基础。此元素包括数据收集、存储、访问控制和防范数据中毒。
- 结合相关背景评估 AI 系统风险。强调数据安全,以支持业务目标和合规性。
确保 AI 流水线安全可靠,防范篡改
此建议与以下重点领域相关:
- 基础架构安全
- 身份和访问权限管理
- 数据安全
- 应用安全
- AI 和机器学习安全
此建议符合以下 SAIF 元素:
- 为 AI 生态系统奠定坚实的安全基础。作为构建安全 AI 系统的关键要素,请保护您的代码和模型工件。
- 调整控制措施以加快反馈环。请跟踪您的资产和流水线运行情况,因为这对缓解措施和突发事件响应至关重要。
使用安全的工具和工件在安全的系统上部署应用
此建议与以下重点领域相关:
- 基础架构安全
- 身份和访问权限管理
- 数据安全
- 应用安全
- AI 和机器学习安全
在 AI 应用中使用安全系统以及经过验证的工具和工件符合 SAIF 中关于为 AI 生态系统和供应链奠定坚实的安全基础的要素。您可以通过以下步骤解决此建议:
- 实现用于机器学习训练和部署的安全环境
- 使用经过验证的容器映像
- 应用软件工件的供应链级别 (SLSA) 准则
保护和监控输入
此建议与以下重点领域相关:
- 日志记录、审核和监控
- 安全运维
- AI 和机器学习安全
此建议与 SAIF 元素中有关扩展检测和响应能力,将 AI 引入组织的威胁防控体系的建议一致。为防止出现问题,请务必管理生成式 AI 系统的提示、监控输入内容并控制用户访问权限。
关于 AI 治理的建议
本部分中的所有建议都与以下重点领域相关:云治理、风险和合规性。
Google Cloud 提供了一套强大的工具和服务,可用于构建负责任且合乎道德的 AI 系统。我们还提供了一套政策、程序和伦理考虑框架,可指导 AI 系统的开发、部署和使用。
正如我们的建议所反映的那样,Google 的 AI 治理方法遵循以下原则:
- 公平性
- 透明度
- 问责机制
- 隐私权
- 安全
使用公平性指标
Vertex AI 可以在数据收集期间或训练后评估过程中检测偏差。Vertex AI 提供模型评估指标(例如数据偏差和模型偏差),可帮助您评估模型是否存在偏差。
这些指标与不同类别(例如种族、性别和阶级)的公平性相关。不过,解读统计偏差并非易事,因为不同类别之间的差异可能并非偏差所致,也未必表明存在伤害。
使用 Vertex Explainable AI
如需了解 AI 模型如何做出决策,请使用 Vertex Explainable AI。此功能可帮助您发现模型逻辑中可能隐藏的潜在偏差。
此可解释性功能已与 BigQuery ML 和 Vertex AI 集成,可提供基于特征的解释。您可以在 BigQuery ML 中执行可解释性,也可以在 Vertex AI 中注册模型,然后在 Vertex AI 中执行可解释性。
跟踪数据沿袭
跟踪 AI 系统中所用数据的来源和转换。此跟踪有助于您了解数据的历程,并找出偏差或错误的潜在来源。
数据沿袭是 Dataplex 的一项功能,可让您跟踪数据在系统中的移动方式:数据来自何处、传递到何处以及对其应用了哪些转换。
建立问责机制
明确规定 AI 系统的开发、部署和结果的责任。
使用 Cloud Logging 记录 AI 系统做出的关键事件和决策。日志提供了一个审核轨迹,可帮助您了解系统的运行状况并确定需要改进的方面。
使用 Error Reporting 系统地分析 AI 系统所犯的错误。此分析可以揭示指向潜在偏差或模型需要进一步优化的方面的一些模式。
实现差分隐私
在模型训练期间,向数据添加噪声,以使模型难以识别个别数据点,但仍能有效学习。借助 BigQuery 中的 SQL,您可以使用差分隐私聚合来转换查询结果。