本文档介绍了 Google Cloud 版 Gemini 是如何根据与生成式 AI 相关的能力、限制和风险而设计的。
大语言模型的功能和风险
大语言模型 (LLM) 可以执行许多实用任务,例如 以下:
- 翻译语言。
- 总结文字。
- 生成代码和富有创意的写作内容。
- 强大的聊天机器人和虚拟助理。
- 与搜索引擎和推荐系统相辅相成。
同时,LLM 的技术能力不断发展,可能会造成误用、滥用以及意外或不可预见的后果。
LLM 可能会生成意料之外的输出,包括冒犯性文字、 麻木不仁或与事实不符的内容。由于 LLM 用途广泛, 要准确预测 它们可能产生的输出。
考虑到这些风险和复杂性,Google Cloud 专用 Gemini 的设计 Google 的 AI 原则 。不过,用户务必要了解 Gemini for Google Cloud 的一些限制,以便安全、负责任地使用。
Google Cloud 专用 Gemini 限制
使用 Gemini 为 Google Cloud 创建报告时,您可能会遇到以下一些限制(但不限于这些限制):
边缘情况。边缘情况是指训练数据中没有充分代表的不常见、罕见或异常情况。这些情况可能会导致 Gemini 模型输出的限制,例如 过度自信、误解背景或不恰当的输出。
模型幻觉、依据和事实。Gemini 模型可能缺乏对真实知识、物理属性或准确理解的依据和真实性。此限制可能导致模型幻觉,即适用于 Google Cloud 产品的 Gemini 可能会生成看似合理的输出,但实际上不正确、不相关、不当或无意义。幻觉还可能包括 编造指向不存在和从未存在过的网页的链接。对于 请参阅 针对 Google Cloud 专用 Gemini 撰写更好的提示。
数据质量和调整。输入到 Gemini for Google Cloud 产品中的提示数据的质量、准确性和偏差可能会对其性能产生重大影响。如果用户输入 不准确或不正确的提示;Google Cloud 专用 Gemini 可能返回欠佳或错误响应。
偏见放大。语言模型可能会无意中放大其训练数据中现有的偏见,导致输出可能进一步增加社会偏见和对某些群体的不平等待遇。
语言质量。虽然适用于 Google Cloud 的 Gemini 在与我们评估的基准上产生了出色的多语言功能,但大多数基准(包括所有公平性评估)都是采用美式英语的。
语言模型可能会为不同的用户提供不一致的服务质量。例如,文本生成功能对某些方言或 因为它们在训练数据中的代表性不足。 对于非英语或英语,效果可能会更差 具有代表性较低的品种。
公平性基准和子群组。Google 研究对 Gemini 模型的公平性分析并未详尽说明各种潜在风险。例如,我们关注性别、种族、民族和宗教轴线上的偏见,但仅对美式英语数据和模型输出进行分析。
领域专业知识有限。Gemini 模型是根据 Google Cloud 技术训练的,但可能缺乏必需的知识深度,无法就高度专业化或技术主题提供准确、详细的响应,导致肤浅或不正确的信息。
当您在 Google Cloud 控制台中使用 Gemini 窗格时,Gemini 无法感知您的具体环境,因此无法回答“我上次创建虚拟机是什么时候?”等问题。
在某些情况下,Gemini for Google Cloud 会将上下文的特定部分发送给模型,以接收特定于上下文的响应,例如,当您点击“Error Reporting”服务页面中的问题排查建议按钮时。
Gemini 安全和毒性过滤
Gemini for Google Cloud 会根据适用于每种用例的安全属性详尽列表,检查提示和回答。这些安全属性旨在滤除违反我们 使用限制政策。如果输出为 视为有害的,系统会屏蔽相应响应。
后续步骤
- 详细了解 Gemini 在帮助您生成代码时如何注明来源。