AI 幻觉是 AI 模型生成的不正确或具有误导性的结果。这些错误可能由多种因素造成,包括训练数据不足、模型做出不正确的假设,或用于训练模型的数据存在偏差。对于用来做出重要决策(例如医疗诊断或金融交易)的 AI 系统来说,AI 幻觉可能会带来问题。
新客户最高可获享 $300 赠金,用于试用 Vertex AI 和其他 Google Cloud 产品。
AI 模型是基于数据训练的,它们通过从数据中寻找规律来学习进行预测。但是,这些预测的准确率通常取决于训练数据的质量和完整性。如果训练数据不完整、有偏差或存在其他缺陷,AI 模型可能会学习不正确的模式,导致预测不准确或出现幻觉。
例如,基于医学图片数据集训练的 AI 模型可能会学习识别癌细胞。但是,如果数据集中不包含任何健康组织的图片,AI 模型可能会错误地预测健康组织会癌变。
有缺陷的训练数据只是 AI 幻觉形成的原因之一。导致这种情况的另一个因素是缺乏适当的依据。AI 模型可能难以准确理解现实世界的知识、物理属性或事实信息。缺乏依据可能会导致模型生成看似合理的输出,但其实是不正确、不相关或无意义的内容。这甚至还包括编造指向从未存在过的网页的链接。
例如,用于生成新闻报道摘要的 AI 模型可能会生成包含原始报道中未包含的详情的摘要,甚至完全虚构信息。
了解 AI 幻觉的潜在原因对于使用 AI 模型的开发者来说非常重要。通过仔细考虑训练数据的质量和完整性,并确保建立适当的依据,开发者可以最大限度地降低 AI 幻觉的风险,并确保其模型准确可靠。
AI 幻觉可能有很多不同的形式。常见示例包括:
在训练 AI 模型时,请务必限制模型可以预测的可能结果数量。这可以通过一种称为“正则化”的技术来实现。正则化会因为模型做出过于极端的预测而惩罚模型。这有助于防止模型过拟合训练数据并做出错误的预测。
在训练 AI 模型时,请务必使用与模型将要执行的任务相关的数据。例如,如果您要训练 AI 模型来识别癌症,则应使用医学图片数据集。使用与任务无关的数据可能会导致 AI 模型做出错误的预测。
在训练 AI 模型时,创建一个供模型遵循的模板会很有帮助。此模板有助于指导模型进行预测。例如,如果您要训练 AI 模型撰写文本,则可以创建一个包含以下元素的模板:
使用 AI 模型时,请务必告知模型您的喜恶偏好。这可以通过向模型提供反馈来实现。例如,如果您使用 AI 模型生成文本,则可以通过告诉模型您喜欢和不喜欢哪些文本来提供反馈。这将有助于模型了解您的需求。
了解如何使用 Google Cloud 来帮助防止 AI 幻觉: