术语表

检索增强生成(RAG)

了解检索增强生成 (RAG) 如何通过整合实时、可靠的外部数据来增强人工智能模型,从而做出准确的最新响应。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

检索增强生成(RAG)是一种创新方法,用于增强生成式人工智能模型,特别是大型语言模型(LLM)的能力。它解决了标准 LLM 的一个关键局限性:LLM 完全依赖于预先训练的数据,这可能导致输出结果与事实不符、过时或缺乏对特定语境的理解。RAG 通过让模型在生成过程中实时访问和整合来自外部的信息,克服了这些问题。

什么是检索增强世代(RAG)?

检索增强生成(RAG)是一种丰富 LLM 知识的技术,它允许 LLM 在生成响应之前从外部知识库中检索信息。与仅依赖内部预训练参数的模型不同,基于 RAG 的模型可动态访问和整合来自外部来源(如文档、数据库或网络)的相关信息。这一过程有效地弥补了 LLM 中蕴含的大量常识与对当前、精确或特定领域信息的需求之间的差距。这确保了生成的内容不仅与上下文相关,而且以最新和可靠的事实为基础。

RAG 如何工作

检索增强生成过程一般包括两个相互配合的主要阶段:

  1. 检索阶段:当用户提出查询时,RAG 系统首先采用检索机制,从指定的知识源中搜索相关信息。这种知识源可以是文档矢量数据库、网页集合或任何结构化或非结构化数据存储库。语义搜索和相似性匹配等技术通常用于识别和获取最相关的文档或信息块。这些方法利用嵌入来理解查询和知识库中信息的含义和上下文,确保检索不仅基于关键词,而且与概念相一致。

  2. 增强和生成阶段:一旦检索到相关信息,就会对其进行 "增强",或将其与用户的原始查询结合起来。然后,将这一增强提示输入 LLM。LLM 利用这种丰富的上下文--包括原始查询和检索到的知识--生成更明智、更准确的回复。这一过程可确保模型的输出以外部事实和上下文为基础,而不是仅仅依赖于可能有限或过时的预训练数据。提示工程等技术在有效地将检索到的信息纳入生成过程、指导 LLM 生成连贯而相关的答案方面发挥着至关重要的作用。

RAG 的应用

事实证明,RAG 是一种用途广泛的技术,可应用于各个领域:

  • 增强型客户支持聊天机器人:在客户服务方面,由 RAG 支持的聊天机器人可以从最新的知识库、常见问题解答和产品文档中检索信息,从而提供更准确、更有帮助的回复。这可确保用户获得最新的具体答复,提高客户满意度,并减少对普通查询的人工干预需求。了解有关聊天机器人及其应用的更多信息。

  • 内容创建和研究协助:对于内容创建者和研究人员而言,RAG 系统可通过访问庞大的信息库来协助生成文章、报告和研究论文。通过以检索到的事实和数据为基础生成文本,RAG 可帮助确保事实的准确性并降低剽窃的风险。这对于需要最新信息或深入研究特定主题的领域尤其有用。了解有关文本生成技术的更多信息。

  • 内部知识管理系统:企业可以利用 RAG 建立内部知识管理系统,使员工能够快速访问和综合公司文档、维基和数据库中的信息。这可以提高效率,促进更好的决策,并通过使组织知识易于获取来简化入职流程。

RAG 与微调

虽然 RAG 和微调的目的都是使 LLM 适应特定的使用情况,但它们的运作方式却有所不同:

  • 检索增强生成(RAG):RAG 通过在查询时检索外部相关信息来增强生成过程。它保持模型参数不变,并依靠外部知识源获取最新的特定领域信息。在处理频繁变化的信息或模型需要访问大量数据而将这些数据纳入模型参数又不切实际时,RAG 具有优势。

  • 微调:微调则是通过在新的特定任务数据集上训练预先训练好的模型来修改内部参数。微调能有效地使模型适应特定的风格、领域或任务,但它会更新模型的核心知识,并需要重新训练以纳入新信息。探索微调迁移学习的概念,进一步了解微调迁移学习

RAG 提供了一种更灵活、更高效的方法,可以在不需要重新训练整个模型的情况下,纳入外部和不断变化的知识,因此对于需要最新和背景丰富的响应的应用来说,RAG 是一种实用的选择。

RAG 的优点

采用 RAG 有几个主要好处:

  • 提高准确性和可靠性:通过将外部可验证来源作为答复的基础,RAG 大大减少了法律硕士的事实错误和幻觉,从而提高了产出的可信度。
  • 获取最新信息:RAG 可以从实时知识库中获取并纳入最新信息,确保答复的时效性和相关性,这在快速发展的领域中是一项至关重要的优势。
  • 增强语境相关性:RAG 通过动态检索和整合相关信息,确保生成的内容与用户的查询和上下文高度相关。
  • 减少幻觉:通过交叉引用和验证外部来源的信息,RAG 可最大限度地减少编造或无意义内容的产生,而这正是纯生成模型的常见问题。
  • 经济高效的知识更新:更新 RAG 系统中的知识就像更新外部知识库一样简单,其资源密集程度远远低于重新训练或微调大型语言模型。
阅读全部