适用于 Google Cloud 的 Gemini 和 Responsible AI

本文档介绍了如何根据与生成式 AI 相关的功能、限制和风险进行设计,说明 Google Cloud 专用 Gemini。

大语言模型的功能和风险

大语言模型 (LLM) 可以执行许多有用的任务,例如:

  • 翻译语言。
  • 总结文本。
  • 生成代码和创意撰写。
  • 强大的聊天机器人和虚拟助理。
  • 与搜索引擎和推荐系统相辅相成。

同时,LLM 的技术能力不断演变,可能会导致出现误用、误用以及意想不到或无法预料的后果。

LLM 可能会生成意想不到的输出,包括令人反感、麻木不仁或与事实不符的文本。由于 LLM 用途广泛,因此很难准确预测它们可能产生哪些类型的意外或意外输出。

鉴于这些风险和复杂性,Google Cloud 专用 Gemini 在设计时牢记了 Google 的 AI 原则。但是,对于用户来说,了解 Google Cloud 专用 Gemini 的一些限制对于安全负责地工作非常重要。

Google Cloud 专用 Gemini 限制

使用 Google Cloud 专用 Gemini 时,您可能会遇到以下限制(但不限于):

  • 极端情况 -边缘情况指的是在训练数据中没有得到很好代表的不寻常、罕见或特殊情况。这些情况可能会导致 Gemini 模型的输出受到限制,例如模型过度置信度、对上下文的误解或不恰当的输出。

  • 模型幻觉、依据和事实。Gemini 模型可能缺乏对现实世界知识、物理特性或准确理解的依据和事实。这一限制可能会导致模型幻想,其中 Google Cloud 专用 Gemini 可能会生成听起来合理但与事实不符、不相关、不当或无意义的输出。幻觉还可能包括编造指向不存在或从未存在的网页的链接。如需了解详情,请参阅针对 Google Cloud 专用 Gemini 撰写更好的提示

  • 数据质量和调优。在 Google Cloud 产品专用 Gemini 中输入的提示数据的质量、准确性和偏差会对其性能产生重大影响。如果用户输入的提示不准确或不正确,Google Cloud 专用 Gemini 可能会返回欠佳或错误回答。

  • 偏见放大。语言模型可能会无意中放大训练数据中的现有偏见,从而导致输出可能进一步加深社会偏见和对某些群体的不平等对待。

  • 语言质量。虽然 Google Cloud 专用 Gemini 在我们评估的基准中展示了令人印象深刻的多语言功能,但我们的大多数基准(包括所有公平性评估)都是采用美式英语的。

    语言模型为不同用户提供的服务质量可能会不一致。例如,对于某些方言或语言变体,文本生成可能效果不如预期,因为它们在训练数据中的代表性不足。对于代表性较低的非英语或英语变体,效果可能会更差。

  • 公平性基准和子群组。Google 研究团队对 Gemini 模型的公平性分析并未详尽列出各种潜在风险。例如,我们重点关注性别、种族、民族和宗教轴方面的偏见,但仅对美式英语数据和模型输出进行分析。

  • 领域专业知识有限。Gemini 模型接受过 Google Cloud 技术训练,但可能缺乏对高度专业或技术主题做出准确而详细的回答所需要的知识深度,从而导致信息浅显或不正确。

    使用 Google Cloud 控制台中的 Gemini 窗格时,Gemini 无法感知具体环境,因此无法回答“上次创建虚拟机是什么时候?”之类的问题。

    在某些情况下,Google Cloud 专用 Gemini 会将特定上下文片段发送给模型,以接收特定于上下文的响应。例如,当您点击 Error Reporting 服务页面中的问题排查建议按钮时。

Gemini 安全和恶意过滤

适用于 Google Cloud 的 Gemini 的提示和回答会对照适用于每种用例的安全属性的完整列表进行检查。这些安全属性旨在滤除违反使用限制政策的内容。如果输出被视为有害,系统将阻止响应。

后续步骤