Глоссарий

Дополненное поколение (Retrieval Augmented Generation, RAG)

Узнай, как Retrieval Augmented Generation (RAG) улучшает модели искусственного интеллекта, интегрируя надежные внешние данные в реальном времени для получения точных и актуальных ответов.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Retrieval Augmented Generation (RAG) - это передовая техника в искусственном интеллекте (ИИ), предназначенная для повышения качества и надежности ответов, генерируемых большими языковыми моделями (LLM). Она работает за счет объединения генеративных возможностей LLM и информационно-поисковой системы. Перед тем как сгенерировать ответ, система RAG сначала извлекает релевантные фрагменты информации из заранее определенного источника знаний (например, из внутренних документов компании, определенной базы данных или из Интернета). Этот извлеченный контекст затем передается в LLM вместе с оригинальным запросом пользователя, что позволяет модели генерировать ответы, которые являются более точными, актуальными и основанными на фактических данных, тем самым уменьшая такие проблемы, как галлюцинации.

Как работает дополненное поколение

Процесс RAG обычно включает в себя два основных этапа:

  1. Поиск информации: Когда пользователь дает подсказку или запрос, система сначала использует эти данные для поиска в большом корпусе документов или векторной базе данных. Цель такого поиска - найти фрагменты текста или документы, содержащие информацию, релевантную запросу. Здесь часто используются такие техники, как семантический поиск, чтобы найти контекстно схожую информацию, а не просто совпадения по ключевым словам.
  2. Генерация: Релевантная информация, полученная на первом этапе, затем объединяется с оригинальной подсказкой пользователя. Эта дополненная подсказка, теперь уже насыщенная конкретным контекстом, поступает в LLM. LLM использует как исходный запрос, так и предоставленный контекст для синтеза комплексного и фактологически обоснованного ответа. Этот процесс был официально представлен в таких исследованиях, как статья Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks.

Преимущества и применение

RAG предлагает несколько преимуществ по сравнению с использованием только стандартных LLM:

  • Повышение точности: обосновывая ответы внешними данными, RAG снижает вероятность того, что LLM выдаст неверную или сфабрикованную информацию.
  • Доступ к актуальной информации: Системы RAG могут получить доступ к актуальной информации, хранящейся в их базе знаний, преодолевая ограничение LLM, чьи знания заморожены на момент их последнего обучения.
  • Доменно-специфические знания: Это позволяет LLM давать ответы экспертного уровня в специализированных областях, извлекая информацию из конкретных технических документов или баз данных.
  • Прозрачность и доверие: Системы RAG часто могут ссылаться на источники, использованные для генерации, что повышает доверие пользователей и позволяет проверять факты, что крайне важно для этики ИИ.

Примеры из реального мира:

  1. Управление корпоративными знаниями: Компании используют RAG для создания внутренних чат-ботов, которые могут точно отвечать на вопросы сотрудников, извлекая информацию из внутренних политик, технических руководств и отчетов, хранящихся на платформах вроде SharePoint или в специальных базах знаний.
  2. Автоматизация поддержки клиентов: Платформы для обслуживания клиентов используют RAG для предоставления агентам поддержки или чат-ботам релевантной информации из FAQ, документации по продукту и прошлых тикетов поддержки, что позволяет быстрее и точнее решать вопросы клиентов. Такие инструменты, как Zendesk, включают в себя подобные функции.

RAG против смежных концепций

  • RAG против стандартных LLM: Стандартные LLM генерируют ответы, основываясь исключительно на шаблонах, изученных в процессе обучения. RAG улучшает этот процесс за счет динамического включения внешней информации во время умозаключений, что приводит к более фактическим и контекстуально релевантным результатам.
  • RAG против тонкой настройки: Тонкая настройка адаптирует предварительно обученную модель к конкретным задачам или доменам, продолжая процесс обучения на меньшем, специализированном наборе данных. Несмотря на свою эффективность, она требует значительных вычислительных ресурсов и переобучения для обновления знаний. RAG позволяет обновлять знания, просто изменяя внешний источник данных без переобучения LLM, что делает его более гибким для быстро меняющейся информации. RAG и тонкая настройка также могут использоваться вместе.
  • RAG против Prompt Engineering: Инженерия подсказок включает в себя тщательное составление подсказки, чтобы направить ответ LLM. RAG автоматизирует процесс предоставления релевантного контекста в подсказке, получая его из внешнего источника. Такие фреймворки, как LangChain и LlamaIndex, предоставляют инструменты для построения конвейеров RAG.

RAG представляет собой значительный шаг на пути к созданию более грамотных и надежных систем ИИ, преодолевая разрыв между огромной генеративной мощью LLM и необходимостью обеспечения фактической точности. Хотя эта концепция часто ассоциируется с текстом, потенциально она может распространяться и на такие модели, как Ultralytics YOLO путем извлечения соответствующих визуальных примеров или метаданных, хотя это все еще развивающаяся область исследований в компьютерном зрении. Платформы вроде Ultralytics HUB облегчают управление моделями и наборами данных, которые потенциально могут служить источниками знаний в будущих мультимодальных приложениях RAG. Изучение доступных наборов данных может дать представление о том, какая структурированная информация может быть полезной.

Читать полностью