용어집

검색 증강 생성(RAG)

검색 증강 생성(RAG)이 어떻게 신뢰할 수 있는 실시간 외부 데이터를 통합하여 정확하고 최신의 응답을 제공함으로써 AI 모델을 향상시키는지 알아보세요.

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

검색 증강 생성(RAG)은 생성형 AI 모델, 특히 대규모 언어 모델(LLM)의 기능을 향상시키기 위한 혁신적인 접근 방식입니다. 이는 표준 LLM의 주요 한계인 사전 학습된 데이터에만 의존하기 때문에 실제로 부정확하거나 오래되었거나 특정 문맥에 대한 이해가 부족한 결과를 초래할 수 있다는 문제를 해결합니다. RAG는 생성 과정에서 모델이 외부 소스의 정보에 실시간으로 액세스하고 통합할 수 있도록 지원함으로써 이러한 문제를 극복합니다.

검색 증강 생성(RAG)이란 무엇인가요?

검색 증강 생성(RAG)은 응답을 생성하기 전에 외부 지식 기반에서 정보를 검색할 수 있도록 함으로써 LLM의 지식을 풍부하게 하는 기술입니다. 내부의 사전 학습된 매개변수에만 의존하는 모델과 달리 RAG 기반 모델은 문서, 데이터베이스 또는 웹과 같은 외부 소스에서 관련 정보를 동적으로 액세스하고 통합합니다. 이 프로세스는 LLM에 포함된 방대한 일반 지식과 최신의 정확한 또는 도메인별 정보의 필요성 사이의 간극을 효과적으로 해소합니다. 이를 통해 생성된 콘텐츠가 맥락과 관련성이 있을 뿐만 아니라 신뢰할 수 있는 최신 사실에 근거하도록 보장합니다.

RAG 작동 방식

검색 증강 생성 프로세스에는 일반적으로 두 가지 주요 단계가 함께 진행됩니다:

  1. 검색 단계: 사용자가 쿼리를 제기하면 RAG 시스템은 먼저 검색 메커니즘을 사용하여 지정된 지식 소스에서 관련 정보를 검색합니다. 이 지식 소스는 문서의 벡터 데이터베이스, 웹 페이지 모음 또는 정형 또는 비정형 데이터 리포지토리일 수 있습니다. 시맨틱 검색 및 유사도 매칭과 같은 기술은 가장 관련성이 높은 문서나 정보 덩어리를 식별하고 가져오는 데 자주 사용됩니다. 이러한 방법은 임베딩을 활용하여 쿼리와 지식창고의 정보 모두의 의미와 맥락을 이해함으로써 검색이 키워드 기반이 아닌 개념적으로 정렬되도록 보장합니다.

  2. 증강 및 생성 단계: 관련 정보가 검색되면 이를 '증강'하거나 원래 사용자 쿼리와 결합합니다. 이렇게 증강된 프롬프트는 LLM으로 전달됩니다. LLM은 원래 쿼리와 검색된 지식 모두에 대한 풍부한 컨텍스트를 사용하여 더 많은 정보를 바탕으로 정확한 응답을 생성합니다. 이 프로세스를 통해 모델은 잠재적으로 제한적이거나 오래된 사전 학습 데이터에만 의존하지 않고 외부 사실과 맥락에 기반한 결과를 도출할 수 있습니다. 프롬프트 엔지니어링과 같은 기술은 검색된 정보를 생성 프로세스에 효과적으로 통합하여 일관성 있고 관련성 있는 답변을 생성하도록 LLM을 안내하는 데 중요한 역할을 합니다.

RAG의 활용

RAG는 다양한 영역에서 활용되는 다재다능한 기술임이 입증되고 있습니다:

  • 향상된 고객 지원 챗봇: 고객 서비스에서 RAG 기반의 챗봇은 최신 지식창고, FAQ, 제품 설명서에서 정보를 검색하여 보다 정확하고 유용한 답변을 제공할 수 있습니다. 이를 통해 사용자는 최신의 구체적인 답변을 받을 수 있으므로 고객 만족도가 향상되고 일반적인 질문에 대한 사람의 개입 필요성이 줄어듭니다. 챗봇과 그 활용에 대해 자세히 알아보세요.

  • 콘텐츠 제작 및 연구 지원: 콘텐츠 제작자와 연구자의 경우, RAG 시스템은 방대한 정보 저장소에 대한 액세스를 제공하여 기사, 보고서 및 연구 논문을 작성하는 데 도움을 줄 수 있습니다. RAG는 검색된 사실과 데이터를 기반으로 생성된 텍스트를 기반으로 사실의 정확성을 보장하고 표절의 위험을 줄입니다. 이는 최신 정보가 필요하거나 특정 주제에 대한 심층 분석이 필요한 분야에서 특히 유용합니다. 텍스트 생성 기술에 대해 자세히 알아보세요.

  • 내부 지식 관리 시스템: 기업은 직원들이 회사 문서, 위키, 데이터베이스의 정보에 빠르게 액세스하고 종합할 수 있는 내부 지식 관리 시스템을 구축하는 데 RAG를 사용할 수 있습니다. 이를 통해 조직의 지식에 쉽게 액세스할 수 있도록 함으로써 효율성을 개선하고, 더 나은 의사결정을 내릴 수 있으며, 온보딩 프로세스를 간소화할 수 있습니다.

RAG 대 미세 조정

RAG와 미세 조정은 모두 특정 사용 사례에 맞게 LLM을 조정하는 것을 목표로 하지만, 작동 방식은 다릅니다:

  • 검색 증강 생성(RAG): RAG는 쿼리 시점에 외부에서 관련 정보를 검색하여 생성 프로세스를 향상시킵니다. 모델의 매개변수를 변경하지 않고 최신의 도메인별 정보를 얻기 위해 외부 지식 소스에 의존합니다. RAG는 자주 변경되는 정보를 처리하거나 모델 파라미터에 포함하기에는 비현실적인 방대한 양의 데이터에 액세스해야 할 때 유용합니다.

  • 미세 조정: 반면에 미세 조정은 새로운 작업별 데이터 세트에 대해 모델을 학습시켜 사전 학습된 모델의 내부 매개변수를 수정하는 것입니다. 미세 조정은 특정 스타일, 도메인 또는 작업에 맞게 모델을 조정하는 데 효과적이지만 모델의 핵심 지식을 업데이트하고 새로운 정보를 통합하기 위해 재교육이 필요합니다. 자세한 이해를 위해 미세 조정전이 학습의 개념을 살펴보세요.

RAG는 전체 모델을 재교육할 필요 없이 외부의 진화하는 지식을 보다 유연하고 효율적으로 통합할 수 있는 방법을 제공하므로 최신의 상황에 맞는 풍부한 응답이 필요한 애플리케이션에 실용적인 선택이 될 수 있습니다.

RAG의 이점

RAG를 도입하면 몇 가지 주요 이점이 있습니다:

  • 정확성 및 신뢰성 향상: RAG는 외부의 검증 가능한 출처에 응답을 근거로 하여 LLM의 사실 오류와 환상을 크게 줄여 더욱 신뢰할 수 있는 결과물을 도출합니다.
  • 최신 정보에 액세스: RAG는 실시간 지식 베이스의 최신 정보에 액세스하고 이를 통합하여 빠르게 진화하는 분야에서 중요한 이점인 최신의 관련성 있는 응답을 보장합니다.
  • 향상된 문맥 관련성: RAG는 관련 정보를 동적으로 검색하고 통합하여 생성된 콘텐츠가 사용자의 검색어 및 문맥과 높은 연관성을 갖도록 합니다.
  • 환각 감소: RAG는 외부 소스와 정보를 상호 참조하고 검증함으로써 순수 생성 모델에서 흔히 발생하는 문제인 조작되거나 무의미한 콘텐츠의 생성을 최소화합니다.
  • 비용 효율적인 지식 업데이트: RAG 시스템에서 지식을 업데이트하는 것은 외부 지식 기반을 업데이트하는 것만큼이나 간단하며, 대규모 언어 모델을 재교육하거나 미세 조정하는 것보다 훨씬 리소스 집약적입니다.
모두 보기