适用于 Google Cloud 的 Gemini 和 Responsible AI

本文档介绍了 Google Cloud 为何根据生成式 AI 的功能、局限性和风险而设计。

大语言模型的功能和风险

大语言模型 (LLM) 可以执行许多实用任务,例如:

  • 翻译语言。
  • 总结文字。
  • 生成代码和富有创意的写作内容。
  • 为聊天机器人和虚拟助理赋能。
  • 与搜索引擎和推荐系统相辅相成。

同时,LLM 的技术能力不断发展,可能会造成误用、滥用以及意外或不可预见的后果。

LLM 可能会生成意料之外的输出,包括令人反感、不顾他人感受或事实上不正确的文本。由于 LLM 具有出色的多样性,因此很难准确预测它们可能会产生的意外或不可预见的输出。

鉴于这些风险和复杂情况,Gemini for Google Cloud 在设计时考虑到了 Google 的 AI 原则。不过,用户必须了解 Gemini 的一些限制,以便以负责任的方式安全使用。 Google Cloud

Gemini for Google Cloud 的限制

使用 Gemini Google Cloud 时,您可能会遇到一些限制,包括但不限于:

  • 边缘情况。边缘情况是指训练数据中没有充分代表的不常见、罕见或异常情况。这些情况会导致 Gemini 模型的输出受到限制,例如模型过度置信度、对语境的误解或不当输出。

  • 模型幻觉、依据和真实性。Gemini 模型可能缺乏对真实知识、物理属性或准确理解的依据和真实性。此限制可能导致模型幻觉,即 Gemini Google Cloud 可能会生成听起来很合理的输出,但实际上不正确、不相关、不当或无意义。幻觉还包括编造指向不存在且从未存在过的网页的链接。如需了解详情,请参阅为 Google Cloud撰写更好的 Gemini 提示

  • 数据质量和调整。输入到 Gemini Google Cloud商品的提示数据的质量、准确性和偏差可能会对其效果产生重大影响。如果用户输入的提示不准确或不正确, Google Cloud版 Gemini 可能会返回不理想的回答或错误回答。

  • 偏见放大。语言模型可能会无意中放大其训练数据中现有的偏见,导致输出可能进一步增加社会偏见和对某些群体的不平等待遇。

  • 语言质量。虽然 Google Cloud版 Gemini 在与我们评估的基准上产生了出色的多语言功能,但大多数基准(包括所有公平性评估)都是采用美式英语的。

    语言模型可能会为不同的用户提供不一致的服务质量。例如,由于训练数据中的代表性不足,文本生成可能对某些方言或语言变体不太有效。对于非英语语言或表示法较少的英语变体,性能可能较差。

  • 公平性基准和子群组。Google 研究对 Gemini 模型的公平性分析并未详尽说明各种潜在风险。例如,我们关注性别、种族、民族和宗教轴线上的偏见,但仅对美式英语数据和模型输出进行分析。

  • 领域专业知识有限。Gemini 模型已基于 Google Cloud 技术进行训练,但可能缺乏必需的知识深度,无法就高度专业化或技术主题提供准确、详细的响应,导致肤浅或不正确的信息。

    当您在 Google Cloud 控制台中使用 Gemini 窗格时,Gemini 无法感知您的具体环境,因此无法回答“我上次创建虚拟机是什么时候?”等问题。

    在某些情况下,Gemini for Google Cloud 会将上下文的特定部分发送给模型,以接收特定于上下文的响应,例如,当您点击“错误报告”服务页面中的问题排查建议按钮时。

Gemini 安全和毒性过滤

系统会根据适用于每种用例的安全属性的完整列表,检查 Gemini Google Cloud 提示和回答。这些安全属性旨在滤除违反我们使用限制政策的内容。如果某个输出被视为有害,系统会屏蔽相应回答。

后续步骤