AI 和机器学习视角:安全

Last reviewed 2024-10-11 UTC

架构框架:AI 和机器学习视角中的本文档概述了一些原则和建议,可确保您的 AI 和机器学习部署符合贵组织的安全和合规性要求。本文档中的建议与架构框架的安全支柱保持一致。

安全部署 AI 和机器学习工作负载是一项关键要求,尤其是在企业环境中。为了满足此要求,您需要采用从 AI 和机器学习解决方案的初始概念化开始,延伸到开发、部署和持续运营的全面安全方法。 Google Cloud 提供强大的工具和服务,旨在帮助您保护 AI 和机器学习工作负载。

明确定义目标和要求

与在开发后添加控制措施相比,在设计和开发流程的早期集成所需的安全和合规控制措施更为容易。从设计和开发流程开始,就做出适合您的具体风险环境和具体业务重点的决策。

请考虑以下建议:

  • 从一开始就识别潜在的攻击途径,并采用安全和合规性视角。在设计和改进 AI 系统时,请留意可能面临的攻击面、潜在风险和义务。
  • 将 AI 和机器学习安全工作与业务目标保持一致,并确保安全是整体策略中不可或缺的一部分。了解您的安全选择对主要业务目标的影响。

确保数据安全并防止丢失或误处理

数据是一种宝贵且敏感的资产,必须妥善保护。数据安全有助于您维护用户信任、实现业务目标并满足合规性要求。

请考虑以下建议:

  • 请勿收集、保留或使用对实现业务目标没有严格必要的数据。如果可能,请使用合成数据或完全匿名化数据。
  • 监控数据收集、存储和转换。维护所有数据访问和操作活动的日志。这些日志可帮助您审核数据访问情况、检测未经授权的访问尝试,以及防止不必要的访问。
  • 根据用户角色实现不同级别的访问权限(例如无访问权限、只读或写入)。确保根据最小权限原则分配权限。用户必须仅拥有执行其角色活动所需的最低权限。
  • 实施加密、安全边界和数据移动限制等措施。这些措施有助于您防范数据渗漏和数据丢失。
  • 防范机器学习训练系统的数据中毒。

确保 AI 流水线安全可靠,防止被篡改

AI 和机器学习代码以及代码定义的流水线是关键资产。未经保护的代码可能会被篡改,这可能会导致数据泄露、违反合规性要求以及关键业务活动中断。确保 AI 和机器学习代码的安全有助于确保模型和模型输出的完整性和价值。

请考虑以下建议:

  • 在模型开发过程中,采用安全的编码实践(例如依赖项管理或输入验证和清理),以防范漏洞。
  • 保护您的流水线代码和模型工件(例如文件、模型权重和部署规范)免遭未经授权的访问。根据用户角色和需求,为每个工件实现不同的访问权限级别。
  • 强制执行资产和流水线运行的沿袭和跟踪。此强制执行功能可帮助您满足合规性要求,并避免生产系统遭到入侵。

使用安全的工具和工件在安全的系统上部署

确保您的代码和模型在具有强大访问权限控制系统的安全环境中运行,并为在该环境中部署的工具和工件提供安全保障。

请考虑以下建议:

  • 在具有适当访问权限控制机制且可防范未经授权的使用或操纵的安全环境中训练和部署模型。
  • 针对 AI 专用工件(例如模型和软件包)遵循标准的软件工件的供应链级别 (SLSA) 指南。
  • 请优先使用专为 AI 工作负载设计且经过验证的预构建容器映像。

保护和监控输入

AI 系统需要输入信息才能进行预测、生成内容或自动执行操作。某些输入可能存在风险或会被用作攻击途径,因此必须进行检测和清理。尽早检测潜在的恶意输入有助于确保 AI 系统安全无虞并按预期运行。

请考虑以下建议:

  • 实施安全做法,为生成式 AI 系统开发和管理提示,并确保对提示进行筛查以防范有害意图。
  • 监控预测性或生成式系统的输入,以防止端点过载或系统无法处理的问题。
  • 确保只有部署的系统的预期用户才能使用该系统。

监控、评估输出并准备好对其做出回应

AI 系统之所以能够创造价值,是因为它们可以生成有助于增强、优化或自动执行人类决策的输出。为了确保 AI 系统和应用的完整性和可信性,您需要确保输出安全且在预期参数范围内。您还需要制定突发事件响应计划。

请考虑以下建议:

  • 监控 AI 和机器学习模型在生产环境中的输出,并找出任何性能、安全和合规性问题。
  • 通过实现可靠的指标和安全措施(例如在预测模型中识别超出范围的生成式回答或极端输出)来评估模型性能。收集用户对模型性能的反馈。
  • 实施健全的提醒和突发事件响应流程,以解决任何潜在问题。

贡献者

作者:

其他贡献者: