Google Cloud 中的 Duet AI 和 Responsible AI

本文档介绍了在设计 Duet AI 时如何考虑与生成式 AI 相关的功能、限制和风险。

大语言模型的功能和风险

大型语言模型 (LLM) 可以执行许多有用的任务,例如:

  • 翻译语言。
  • 总结文本。
  • 生成代码和发挥创造力。
  • 强大的聊天机器人和虚拟助理。
  • 与搜索引擎和推荐系统相辅相成。

同时,LLM 的技术能力在不断变化,可能会造成误应用、滥用以及意外或无法预料的后果。

LLM 可能会生成意料之外的输出,包括冒犯性、缺乏敏感性或与事实不符的文本。由于 LLM 具有极其广泛的用途,因此很难准确预测它们可能会生成哪些类型的意外或无法预料的输出。

考虑到这些风险和复杂性,Google Cloud 中的 Duet AI 在设计时考虑到了 Google 的 AI 原则。但是,对于用户而言,了解该技术的一些限制才能安全负责任地工作,这一点非常重要。

Google Cloud 专用 Duet AI 的限制

在 Google Cloud 中使用 Duet AI 时可能会遇到的一些限制包括(但不限于)以下限制:

  • 极端情况。边缘情况是指训练数据中未得到很好表示的异常、罕见或特殊情况。这些情况可能会导致 Duet AI 的输出受到限制,例如模型过度自信、对上下文的误解或不恰当的输出。

  • 模型幻觉、依据和事实性。Google Cloud 中的 Duet AI 在现实世界的知识、物理属性或准确理解方面可能缺乏依据和事实性。此限制可能会导致模型幻觉,其中 Duet AI 生成的输出听起来看似合理,但与事实不符、不相关、不恰当或无意义。此外,幻觉还包括虚构指向不存在或从未存在过的网页的链接。如需了解详情,请参阅为 Duet AI 编写更好的提示

    为了最大限度地减少幻觉,我们会采用多种方法,例如提供大量高质量数据来训练和微调模型,以及提示工程技术(例如检索增强生成)。

  • 数据质量和调整。输入到 Duet AI 的提示数据的质量、准确性和偏差会对其性能产生重大影响。如果用户输入的问题不准确或不正确,Duet AI 可能会返回不理想或错误的回复。

  • 放大偏见。语言模型可能会无意中放大其训练数据中的现有偏差,导致其输出可能会进一步加剧社会偏见并对某些群体造成不平等对待。

  • 语言质量。虽然 Duet AI 在我们的评估基准中产生了令人印象深刻的多语言能力,但我们的大部分基准(包括所有公平性评估)都是使用美式英语。

    语言模型可能会为不同的用户提供不一致的服务质量。例如,文本生成对于某些方言或语言变体可能没有那么有效,因为它们在训练数据中的代表性不足。非英语语言或代表性较低的英语语言变体的性能可能更差。

  • 公平性基准和子群组。Google 研究团队对 Duet AI 的公平性分析并未详尽列出各种潜在风险。例如,我们重点关注性别、种族、民族和宗教轴方面的偏见,但仅分析美国英语数据和模型输出。

  • 领域专业知识有限。Duet AI 接受过基于 Google Cloud 技术的训练,但可能缺乏对高度专业或技术主题提供准确而详细的响应所需的深厚知识,从而导致信息浅层或错误。

    当您在 Google Cloud 控制台中使用 Duet AI 窗格时,Duet AI 可能无法获知特定项目和环境的完整上下文,因此它可能无法回答“我上次创建虚拟机是什么时候?”这样的问题。

    在某些情况下,Duet AI 会将上下文的特定细分发送到模型,以接收特定上下文的响应,例如,当您点击 Error Reporting 服务页面中的问题排查建议按钮时。

Duet AI 安全和恶意内容过滤

Google Cloud 中的 Duet AI 提示和响应会根据适用于每个应用场景的完整安全属性列表进行检查。这些安全属性旨在滤除违反我们的使用限制政策的内容。如果输出被认为是有害的,系统将阻止响应。

后续步骤