Google Cloud 良好架构框架的安全支柱中,此原则提供了有关使用 AI 来帮助您提高云工作负载安全性的建议。
由于网络攻击的数量和复杂性不断增加,因此请务必利用 AI 的潜力来帮助提高安全性。AI 可以帮助减少威胁数量,减少安全专业人员所需的手动工作量,并帮助弥补网络安全领域专家的匮乏。
原则概览
利用 AI 功能改进现有的安全系统和流程。 您可以使用 Gemini in Security,以及内置于 Google Cloud 服务中的固有 AI 功能。
这些 AI 功能可在安全生命周期的每个阶段提供帮助,从而彻底改变安全形势。例如,您可以使用 AI 执行以下操作:
- 无需进行逆向工程即可分析和说明潜在恶意代码。
- 减少网络安全从业者的工作量。
- 使用自然语言生成查询并与安全事件数据进行交互。
- 显示情境信息。
- 提供快速回复建议。
- 协助修复事件。
- 汇总针对错误配置和漏洞的高优先级提醒,突出显示潜在影响并建议缓解措施。
安全自主程度
在应对不断变化的网络安全威胁时,AI 和自动化技术可以帮助您取得更理想的安全成效。通过将 AI 用于安全领域,您可以实现更高级别的自主化,以检测和防范威胁,并改善整体安全状况。Google 定义了在将 AI 用于安全方面时,AI 的四个自治等级,这些等级概述了 AI 在协助和最终主导安全任务方面日益增强的作用:
- 手动:在整个安全生命周期中,由人工执行所有安全任务(预防、检测、确定优先级和响应)。
- 辅助:Gemini 等 AI 工具可通过总结信息、生成数据洞见和提供建议来提高人工效率。
- 半自动:AI 负责执行许多安全任务,仅在必要时才将任务委托给人工。
- 自治:AI 可充当可信助理,根据贵组织的目标和偏好设置推动安全生命周期,最大限度地减少人为干预。
建议
以下部分介绍了有关将 AI 用于安全方面的建议。这些部分还说明了这些建议如何与 Google 的安全 AI 框架 (SAIF) 核心要素保持一致,以及它们与安全自主程度之间的关系。
利用 AI 增强威胁检测和响应能力
此建议与以下重点领域相关:
- 安全运维 (SecOps)
- 日志记录、审核和监控
AI 可以分析大量安全数据,深入了解威胁行为,并自动分析潜在的恶意代码。此建议符合以下 SAIF 元素:
- 扩展检测和响应能力,将 AI 引入组织的威胁防控体系。
- 使防御自动化,紧跟现有威胁和新威胁的步伐。
根据您的实现方式,此建议可能与以下自动化级别相关:
- 辅助:AI 有助于进行威胁分析和检测。
- 半自主:AI 承担更多安全任务。
Google Threat Intelligence 使用 AI 分析威胁行为者行为和恶意代码,可帮助您实现此建议。
专家和非专家都能掌握安全技能
此建议与以下重点领域相关:
- 安全运维 (SecOps)
- 云治理、风险和合规性
依托 AI 技术的工具可以总结提醒并建议缓解措施,这些功能可以让更多人员更轻松地使用安全功能。此建议符合以下 SAIF 元素:
- 使防御自动化,紧跟现有威胁和新威胁的步伐。
- 统一平台级控制措施,确保整个组织的安全措施保持一致。
根据您的实现方式,此建议可能与以下自动化级别相关:
- 辅助:AI 可帮助您更轻松地获取安全信息。
- 半自动:AI 有助于为所有用户提高安全做法的有效性。
Security Command Center 中的 Gemini 可以提供有关错误配置和漏洞的提醒摘要。
利用 AI 自动执行耗时的安全任务
此建议与以下重点领域相关:
- 基础架构安全
- 安全运维 (SecOps)
- 应用安全
AI 可以自动执行分析恶意软件、生成安全规则和识别配置错误等任务。这些功能有助于减轻安全团队的工作量并缩短响应时间。此建议与 SAIF 要素“使防御自动化,紧跟现有威胁和新威胁的步伐”相符。
根据您的实现方式,此建议可能与以下自动化级别相关:
- 辅助:AI 可帮助您自动执行任务。
- 半自动:AI 承担安全任务的主要责任,仅在需要时请求人工协助。
Google SecOps 中的 Gemini 可以协助分析师、检索相关背景信息,并就后续步骤提供建议,从而帮助自动执行费时费力的任务。
将 AI 纳入风险管理和治理流程
此建议与以下重点领域相关:Cloud 治理、风险和合规性。
您可以使用 AI 构建模型目录和风险信号。您还可以使用 AI 来实施数据隐私、网络风险和第三方风险政策。此建议与 SAIF 中关于结合周边业务流程背景评估 AI 系统风险的要素相符。
根据您的实现方式,此建议可能与半自动驾驶级别相关。在此级别,AI 可以协调运行流程的安全代理,以实现您的自定义安全目标。
为 AI 系统实施安全开发实践
此建议与以下重点领域相关:
- 应用安全
- AI 和机器学习安全
您可以使用 AI 进行安全编码、清理训练数据,以及验证工具和工件。此建议与 SAIF 中有关为 AI 生态系统奠定坚实的安全基础的要素相符。
此建议适用于所有级别的安全自主性,因为必须先建立安全的 AI 系统,然后才能有效地将 AI 用于安全用途。此建议最适用于“辅助”级别,此级别的安全做法会由 AI 技术加以增强。
如需实现此建议,请遵循适用于 AI 工件的 软件工件的供应链级别 (SLSA) 准则,并使用经过验证的容器映像。