术语表

幻觉(在法律硕士中)

探索如何管理 GPT-3 等 LLM 中的幻觉,通过有效的技术和道德监督提高人工智能的准确性。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

大型语言模型(LLM)具有生成类人文本的卓越能力,但有时也会产生与事实不符或无意义的输出,即所谓的 "幻觉"。LLM 中的幻觉是指模型生成的内容不能反映真实世界的数据或有效信息。理解和管理幻觉对于有效部署人工智能至关重要。

了解幻觉

产生幻觉的原因

  1. 训练数据的局限性:LLM 是在大量数据集上进行训练的,但这些数据集可能包含错误或偏差,从而导致幻觉。此外,缺乏最新或完整的信息也会加剧误差。
  2. 概率性质:LLM 基于概率生成文本。这种固有的不确定过程有时会产生富有想象力但不正确的输出结果,类似于 "胡编乱造"。

  3. 复杂问题:面对复杂或模棱两可的问题时,法律硕士可能会插话或编造似是而非的信息来填补空白。

区别于相似概念

虽然幻觉涉及不正确的生成结果,但它们与人工智能中的偏见不同,后者涉及因偏见数据集而导致的系统性错误。有关偏见如何影响人工智能系统的更多信息,请参阅《人工智能中的偏见》。

相关性和应用

GPT-3 术语表》中探讨了GPT-3 等 LLM,尽管存在挑战,但它们为聊天机器人、内容创建等各种应用提供了先进的功能,在这些应用中,对上下文的理解通常可以弥补偶尔出现的幻觉。探索真实世界部署的聊天机器人应用

减少幻觉

缓解技术

  1. 检索-增强生成(RAG):通过利用外部数据,模型可以完善响应,减少幻觉。深入了解RAG 技术

  2. 微调:根据特定数据集调整模型,提高准确性。在微调方法中了解更多信息。

  3. 人工监督:采用人在回路中的方法可确保验证人工智能的输出结果,这在医疗保健等领域是至关重要的一步,《医疗保健中的人工智能》一书对此进行了讨论。

真实世界的例子

  1. 客户支持Microsoft Copilot等公司使用的人工智能聊天机器人有时会产生幻觉,提供不准确的信息,因此需要不断进行培训和改进。

  2. 内容生成:人工智能生成的新闻报道可能包含不存在的事实,因为 LLM 试图在没有足够上下文或数据准确性的情况下构建叙述。

伦理影响

幻觉会引发伦理问题,尤其是在错误信息可能产生重大影响的应用中。确保人工智能的伦理和问责制是不可或缺的,这也是人工智能伦理中进一步探讨的话题。

未来发展方向

随着人工智能的不断发展,努力提高 LLM 的准确性和可靠性将加强各行业的应用,同时最大限度地减少幻觉。整合先进的外部验证方法和更强大的训练数据集很可能会定义下一代 LLM。

如需了解有关 LLM 应用和幻觉管理的最新进展和见解,请访问Ultralytics 博客,并考虑下载Ultralytics App,获取直接的人工智能参与工具。

阅读全部