什么是 AI 幻觉?

AI 幻觉是 AI 模型生成的不正确或具有误导性的结果。这些错误可能由多种因素造成,包括训练数据不足、模型做出不正确的假设,或用于训练模型的数据存在偏差。对于用来做出重要决策(例如医疗诊断或金融交易)的 AI 系统来说,AI 幻觉可能会带来问题。

新客户最高可获享 $300 赠金,用于试用 Vertex AI 和其他 Google Cloud 产品。

AI 幻觉是如何产生的?

AI 模型是基于数据训练的,它们通过从数据中寻找规律来学习进行预测。但是,这些预测的准确率通常取决于训练数据的质量和完整性。如果训练数据不完整、有偏差或存在其他缺陷,AI 模型可能会学习不正确的模式,导致预测不准确或出现幻觉。

例如,基于医学图片数据集训练的 AI 模型可能会学习识别癌细胞。但是,如果数据集中不包含任何健康组织的图片,AI 模型可能会错误地预测健康组织会癌变。

有缺陷的训练数据只是 AI 幻觉形成的原因之一。导致这种情况的另一个因素是缺乏适当的依据。AI 模型可能难以准确理解现实世界的知识、物理属性或事实信息。缺乏依据可能会导致模型生成看似合理的输出,但其实是不正确、不相关或无意义的内容。这甚至还包括编造指向从未存在过的网页的链接。

例如,用于生成新闻报道摘要的 AI 模型可能会生成包含原始报道中未包含的详情的摘要,甚至完全虚构信息。

了解 AI 幻觉的潜在原因对于使用 AI 模型的开发者来说非常重要。通过仔细考虑训练数据的质量和完整性,并确保建立适当的依据,开发者可以最大限度地降低 AI 幻觉的风险,并确保其模型准确可靠。

AI 幻觉的示例

AI 幻觉可能有很多不同的形式。常见示例包括:

  • 预测不正确:AI 模型预测的事件可能并不会发生。例如,用于预测天气的 AI 模型可能会预测明天将会下雨,而天气预报没有下雨。
  • 假正例:使用 AI 模型时,它可能会将某个并非威胁的内容识别为威胁。例如,用于检测欺诈行为的 AI 模型可能会将实际并非欺诈的交易标记为欺诈性交易。
  • 假负例:AI 模型可能无法及时将某些内容识别为威胁。例如,用于检测癌症的 AI 模型可能无法识别癌性肿瘤。

如何防止 AI 幻觉

您可以采取多种措施来防止 AI 幻觉,包括:

限制可能的结果

在训练 AI 模型时,请务必限制模型可以预测的可能结果数量。这可以通过一种称为“正则化”的技术来实现。正则化会因为模型做出过于极端的预测而惩罚模型。这有助于防止模型过拟合训练数据并做出错误的预测。

仅使用相关且具体的信息来源来训练 AI

在训练 AI 模型时,请务必使用与模型将要执行的任务相关的数据。例如,如果您要训练 AI 模型来识别癌症,则应使用医学图片数据集。使用与任务无关的数据可能会导致 AI 模型做出错误的预测。

创建模板以供 AI 遵循

在训练 AI 模型时,创建一个供模型遵循的模板会很有帮助。此模板有助于指导模型进行预测。例如,如果您要训练 AI 模型撰写文本,则可以创建一个包含以下元素的模板:

  • 标题
  • 简介
  • 正文
  • 总结

告诉 AI 你的喜恶偏好

使用 AI 模型时,请务必告知模型您的喜恶偏好。这可以通过向模型提供反馈来实现。例如,如果您使用 AI 模型生成文本,则可以通过告诉模型您喜欢和不喜欢哪些文本来提供反馈。这将有助于模型了解您的需求。

利用 Google Cloud 解决业务难题

新客户可获得 $300 赠金,用于抵扣 Google Cloud 的费用。
与 Google Cloud 销售专员联系,详细讨论您的独特挑战。

更进一步

获享 $300 赠金以及 20 多种提供“始终免费”用量的产品,开始在 Google Cloud 上构建项目。

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
控制台