용어집

환각(LLM에서)

LLM 환각의 정의, 원인, 실제 위험, 정확하고 신뢰할 수 있는 AI 결과물을 위해 환각을 완화하는 방법을 알아보세요.

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

GPT와 같은 대규모 언어 모델(LLM)은 대규모 데이터 세트에서 학습한 패턴을 기반으로 텍스트를 생성하도록 설계되었습니다. 그러나 이러한 모델은 때때로 사실처럼 보이지만 완전히 조작되거나 부정확한 정보를 생성할 수 있습니다. 이러한 현상을 LLM에서는 '환각'이라고 합니다. 환각은 모델이 학습된 데이터에 근거하지 않거나 의도한 결과물에서 벗어난 콘텐츠를 생성할 때 발생합니다.

LLM의 환각 이해하기

환각은 LLM의 확률적 특성으로 인해 발생합니다. 이러한 모델은 학습 데이터에서 도출된 가능성을 기반으로 시퀀스의 다음 단어를 예측합니다. 때때로 이 과정에서 그럴듯하게 들리지만 잘못된 결과가 나올 수 있습니다. 사소한 부정확성에서부터 완전히 조작된 사실, 사건 또는 인용에 이르기까지 다양한 오류가 발생할 수 있습니다.

예를 들어

  • LLM은 특정 연도에 역사적 인물이 태어났다고 자신 있게 말할 수 있지만, 날짜가 틀릴 수도 있습니다.
  • 인용을 요청할 때 존재하지 않는 과학 논문에 대한 참조를 조작할 수 있습니다.

환각은 특히 의료, 법률 또는 과학 연구와 같이 정확성과 신뢰성이 중요한 분야에서 우려되는 문제입니다. AI 윤리의 광범위한 의미와 책임감 있는 AI 개발의 중요성에 대해 자세히 알아보세요.

환각의 원인

환각은 여러 가지 요인으로 인해 발생할 수 있습니다:

  1. 학습 데이터의 한계: 모델에 특정 주제에 대한 정확한 데이터가 충분하지 않아 불완전하거나 관련 없는 정보를 기반으로 '추측'할 수 있습니다.
  2. 지나친 일반화: LLM은 학습 데이터의 패턴을 부적절한 컨텍스트에 과도하게 맞추거나 적용할 수 있습니다.
  3. 프롬프트 모호성: 입력 프롬프트가 불분명하거나 지나치게 광범위하면 모델에서 관련성이 없거나 조작된 응답을 생성할 수 있습니다.
  4. 모델 설계: 트랜스포머와 같은 LLM의 기본 아키텍처는 사실의 정확성보다는 언어적 일관성에 중점을 둡니다. Transformer 아키텍처와 그 애플리케이션에 대해 자세히 알아보세요.

환각의 실제 사례

예 1: 의료 진단

의료 챗봇에 사용되는 LLM은 환각 증상이나 참고 문헌에 근거하여 치료법을 잘못 제안할 수 있습니다. 예를 들어 특정 질환에 대해 존재하지 않는 약을 추천할 수 있습니다. 이를 완화하기 위해 개발자는 설명 가능한 AI(XAI) 를 통합하여 AI가 생성한 제안의 투명성과 추적성을 보장합니다.

예 2: 법률 지원

법률 문서를 작성할 때 법률전문가는 판례를 조작하거나 법규를 잘못 인용할 수 있습니다. 이는 법률 전문가가 정확한 판례에 의존하는 애플리케이션에서 특히 문제가 됩니다. 검색 증강 생성(RAG) 과 같은 검색 기반 방법을 사용하면 검증된 문서에 근거하여 답변을 작성하는 데 도움이 될 수 있습니다.

환각 문제 해결

환각을 줄이는 기술

  1. 향상된 데이터 큐레이션: 고품질의 다양한 학습 데이터 세트를 제공하면 환각의 가능성을 줄일 수 있습니다. 예를 들어 머신러닝(ML) 애플리케이션을 위해 큐레이션된 데이터 세트는 정확성을 보장하기 위해 엄격한 검증을 거치는 경우가 많습니다.
  2. 인간 피드백을 통한 강화 학습(RLHF): 이 접근 방식은 사람의 피드백을 사용하여 모델을 미세 조정하여 바람직하고 사실적인 반응에 맞게 출력을 조정합니다.
  3. 프롬프트 엔지니어링: 정확하고 구체적인 프롬프트를 제작하면 모델이 보다 정확한 결과물을 도출하도록 유도할 수 있습니다. 프롬프트 엔지니어링과 LLM 성능 최적화를 위한 프롬프트 엔지니어링의 역할에 대해 자세히 알아보세요.
  4. 외부 지식 통합: 외부 지식 기반 또는 API를 통합하면 추론 중에 모델이 최신의 정확한 정보에 액세스할 수 있습니다.

도구 및 프레임워크

  • OpenAI와 다른 조직은 모델에서 환각을 감지하고 최소화하는 방법을 적극적으로 연구하고 있습니다. 예를 들어 OpenAI의 GPT-4에는 사실의 부정확성을 줄이기 위한 메커니즘이 포함되어 있습니다.

애플리케이션 및 위험

환각은 도전 과제를 제시하기도 하지만 창의적인 활용도도 있습니다. 스토리텔링이나 콘텐츠 제작과 같은 분야에서 환각은 상상력이나 사변적인 아이디어를 창출하여 혁신을 촉진할 수 있습니다. 그러나 의료나 자율 주행 차량과 같은 중요한 분야에서는 환각이 잘못된 정보나 안전 위험을 초래하는 등 심각한 결과를 초래할 수 있습니다.

향후 방향

환각 문제를 해결하려면 모델 훈련과 평가 모두에서 발전이 필요합니다. 설명 가능한 AI를 통합하고 도메인별 모델을 개발하는 것과 같은 기술은 유망한 경로입니다. 또한, 개발자는 Ultralytics HUB와 같은 플랫폼을 통해 최첨단 AI 솔루션을 실험하는 동시에 강력한 평가 및 배포 관행에 집중할 수 있습니다.

환각을 이해하고 완화함으로써 LLM의 잠재력을 최대한 발휘하는 동시에 실제 애플리케이션에서 신뢰할 수 있고 신뢰할 수 있는 결과물을 보장할 수 있습니다.

모두 보기