适用于 Google Cloud 的 Gemini 和 Responsible AI

本文档介绍了 Google Cloud 专用 Gemini 的设计初衷,是为了确保: 与生成式 AI 相关的能力、限制和风险。

大语言模型的功能和风险

大语言模型 (LLM) 可以执行许多实用任务,例如 以下:

  • 翻译语言。
  • 总结文本。
  • 生成代码和创意撰写。
  • 强大的聊天机器人和虚拟助理。
  • 与搜索引擎和推荐系统相辅相成。

同时,LLM 的技术能力不断演变, 潜在的滥用和滥用情况,以及意想不到的或无法预料的后果。

LLM 可能会生成意料之外的输出,包括冒犯性文字, 麻木不仁或与事实不符的内容。由于 LLM 用途广泛, 要准确预测 它们可能产生的输出。

考虑到这些风险和复杂性,Google Cloud 专用 Gemini 的设计 Google 的 AI 原则 。不过,用户有必要了解 适用于 Google Cloud 的 Gemini,安全负责地工作。

Google Cloud 专用 Gemini 限制

使用 Gemini 时可能会遇到的一些限制 包括(但不限于)以下内容:

  • 极端情况 -边缘情况是指不寻常、罕见或特殊情况 训练数据没有得到很好的代表。这些情况可能会导致 Gemini 模型输出的限制,例如 过度自信、误解背景或不恰当的输出。

  • 模型幻觉、依据和事实。Gemini 模型可能缺乏对现实世界知识、现实世界的 或准确的理解。这一限制可能会导致 Google Cloud 专用 Gemini 可能 生成听起来看似合理但与事实不符的输出, 不相关、不当或无意义的内容。幻觉还可能包括 编造指向不存在且从未存在过的网页的链接。对于 请参阅 针对 Google Cloud 专用 Gemini 撰写更好的提示

  • 数据质量和调优。提示的质量、准确性和偏差 输入到 Google Cloud 专用 Gemini 中的数据 可能会对广告效果产生重大影响。如果用户输入 不准确或不正确的提示;Google Cloud 专用 Gemini 可能返回欠佳或错误响应。

  • 偏见放大。语言模型可能会无意中放大现有语言的 训练数据中的偏见,从而产生可能会进一步强化 某些群体的社会偏见和不平等的待遇。

  • 语言质量。而 Gemini for Google Cloud Google Cloud 可提供令人印象深刻的多语言功能, 大多数基准(包括所有 公平性评估)使用美式英语。

    语言模型为不同用户提供的服务质量可能会不一致。 例如,文本生成功能对某些方言或 因为它们在训练数据中的代表性不足。 对于非英语或英语,效果可能会更差 具有代表性较低的品种。

  • 公平性基准和子群组。Google 研究团队的公平性分析 Gemini 模型并不会详尽说明 潜在风险例如,我们重点关注性别、种族、 种族和宗教坐标轴,但仅对美国 英语数据和模型输出。

  • 领域专业知识有限。Gemini 模型经过训练 Google Cloud 技术方面的知识,但可能缺乏相关知识深度 您需要准确、详细地回答这些问题, 专业性或技术性主题,会导致浅显或错误 信息。

    使用 Google Cloud 控制台中的 Gemini 窗格时, Gemini 无法感知情境,无法感知具体环境, 它无法回答“我上次创建虚拟机是什么时候?”

    在某些情况下,Google Cloud 专用 Gemini 会将特定的 将上下文片段传递给模型,以接收特定于上下文的 响应,例如,当您点击问题排查建议 按钮。

Gemini 安全和恶意过滤

已勾选 Gemini for Google Cloud 提示和回答 安全属性的完整列表(适用于每种用途) 这种情况。这些安全属性旨在滤除违反我们 使用限制政策。如果输出为 视为有害的,系统会屏蔽相应响应。

后续步骤