Глоссарий

Дополненное поколение (Retrieval Augmented Generation, RAG)

Узнай, как Retrieval Augmented Generation (RAG) улучшает модели искусственного интеллекта, интегрируя надежные внешние данные в реальном времени для получения точных и актуальных ответов.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Retrieval Augmented Generation (RAG) - это инновационный подход к расширению возможностей генеративных моделей ИИ, в частности Large Language Models (LLM). Он решает ключевое ограничение стандартных LLM: их зависимость исключительно от предварительно обученных данных, что может привести к получению фактологически неточных, устаревших результатов или отсутствию специфического контекстуального понимания. RAG решает эти проблемы, позволяя моделям получать доступ и включать информацию из внешних источников в режиме реального времени в процессе генерации.

Что такое Retrieval Augmented Generation (RAG)?

Retrieval Augmented Generation (RAG) - это техника, которая обогащает знания LLM, позволяя им извлекать информацию из внешних баз знаний перед генерацией ответа. В отличие от моделей, которые полагаются исключительно на свои внутренние, предварительно обученные параметры, модели на основе RAG динамически получают доступ и интегрируют релевантную информацию из внешних источников, таких как документы, базы данных или веб. Этот процесс эффективно преодолевает разрыв между обширными общими знаниями, заложенными в LLM, и потребностью в актуальной, точной или специфической для конкретной области информации. Это гарантирует, что генерируемый контент будет не только контекстуально релевантным, но и основанным на актуальных и достоверных фактах.

Как работает RAG

Процесс Retrieval Augmented Generation обычно включает в себя два основных этапа, работающих в тандеме:

  1. Этап поиска: Когда пользователь задает запрос, система RAG сначала задействует механизм поиска релевантной информации из определенного источника знаний. Этим источником знаний может быть векторная база документов, коллекция веб-страниц или любое хранилище структурированных или неструктурированных данных. Такие методы, как семантический поиск и сопоставление по сходству, часто используются для определения и извлечения наиболее релевантных документов или фрагментов информации. Эти методы используют вкрапления для понимания смысла и контекста как запроса, так и информации в базе знаний, гарантируя, что поиск будет не просто основан на ключевых словах, а концептуально согласован.

  2. Этап дополнения и генерации: После того как релевантная информация найдена, она "дополняется" или комбинируется с исходным запросом пользователя. Затем эта дополненная подсказка поступает в LLM. LLM использует этот обогащенный контекст - как исходный запрос, так и извлеченные знания, - чтобы сгенерировать более обоснованный и точный ответ. Этот процесс гарантирует, что вывод модели будет основан на внешних фактах и контексте, а не только на потенциально ограниченных или устаревших данных предварительного обучения. Такие техники, как проектирование подсказок, играют решающую роль в эффективном включении полученной информации в процесс генерации, направляя LLM на создание связных и релевантных ответов.

Применение RAG

RAG оказывается универсальной техникой, которая находит применение в различных сферах:

  • Усовершенствованные чат-боты для поддержки клиентов: В службе поддержки чат-боты на базе RAG могут давать более точные и полезные ответы, извлекая информацию из актуальных баз знаний, FAQ и документации по продуктам. Это гарантирует, что пользователи получат актуальные и конкретные ответы, повышая удовлетворенность клиентов и снижая необходимость вмешательства человека при решении распространенных вопросов. Узнай больше о чат-ботах и их применении.

  • Помощь в создании контента и проведении исследований: Создателям контента и исследователям системы RAG могут помочь в создании статей, отчетов и научных работ, предоставляя доступ к огромным хранилищам информации. Основывая создаваемый текст на найденных фактах и данных, RAG помогает обеспечить фактическую точность и снижает риск плагиата. Это особенно полезно в областях, требующих актуальной информации или глубокого погружения в конкретные темы. Узнай больше о технике генерации текста.

  • Внутренние системы управления знаниями: Предприятия могут использовать RAG для создания внутренних систем управления знаниями, которые позволяют сотрудникам быстро получать доступ и синтезировать информацию из документов компании, вики и баз данных. Это может повысить эффективность, способствовать принятию более эффективных решений и упростить процесс вхождения в должность, сделав организационные знания легкодоступными.

RAG против тонкой настройки

Хотя и RAG, и тонкая настройка направлены на адаптацию LLM для конкретных случаев использования, действуют они по-разному:

  • Retrieval Augmented Generation (RAG): RAG улучшает процесс генерации, извлекая релевантную информацию из внешних источников во время запроса. При этом параметры модели остаются неизменными, а внешние источники знаний получают актуальную и специфическую для конкретной области информацию. RAG выгоден, когда приходится иметь дело с часто меняющейся информацией или когда модель должна получить доступ к огромному количеству данных, которые нецелесообразно включать в параметры модели.

  • Тонкая настройка: Тонкая настройка, с другой стороны, подразумевает изменение внутренних параметров предварительно обученной модели путем ее тренировки на новом наборе данных, специфичном для конкретной задачи. Тонкая настройка эффективна для адаптации модели к определенному стилю, домену или задаче, но она обновляет основные знания модели и требует переобучения для учета новой информации. Изучи концепцию тонкой настройки и трансферного обучения для дальнейшего понимания.

RAG предлагает более гибкий и эффективный способ включения внешних и развивающихся знаний без необходимости переобучения всей модели, что делает его практичным выбором для приложений, требующих актуальных и контекстуально насыщенных ответов.

Преимущества RAG

Принятие RAG дает несколько ключевых преимуществ:

  • Повышение точности и надежности: Основывая ответы на внешних, проверяемых источниках, RAG значительно снижает количество фактических ошибок и галлюцинаций в LLM, что приводит к более достоверным результатам.
  • Доступ к актуальной информации: RAG может получить доступ к самой свежей информации из живых баз знаний и включить ее в свою работу, обеспечивая актуальность и релевантность ответов, что является важнейшим преимуществом в быстро развивающихся областях.
  • Улучшенная контекстная релевантность: RAG обеспечивает высокую релевантность генерируемого контента запросу и контексту пользователя, динамически извлекая и внедряя соответствующую информацию.
  • Уменьшение количества галлюцинаций: Благодаря перекрестным ссылкам и проверке информации по внешним источникам, RAG сводит к минимуму создание сфабрикованного или нелепого контента, что является общей проблемой для чисто генеративных моделей.
  • Экономически эффективное обновление знаний: Обновить знания в системе RAG так же просто, как обновить внешнюю базу знаний, что гораздо менее ресурсоемко, чем переобучение или тонкая настройка большой языковой модели.
Читать полностью