용어집

프롬프트 튜닝

프롬프트 튜닝을 통해 대규모 언어 모델을 효율적으로 최적화하여 비용을 절감하고 리소스를 절약하며 작업별 적응성을 손쉽게 달성하세요.

프롬프트 튜닝은 원래 모델의 가중치를 변경하지 않고도 대규모 언어 모델(LLM)과 같이 사전 학습된 대규모 모델을 새로운 작업에 적용하는 강력하고 효율적인 기술입니다. 이는 기본 모델의 수십억 개의 파라미터를 동결하고 대신 작업별 "소프트 프롬프트"의 작은 세트를 학습하는 PEFT(Parameter-Efficient Fine-Tuning) 의 한 형태입니다. 이러한 소프트 프롬프트는 사람이 읽을 수 있는 텍스트가 아니라 입력에 추가되는 학습 가능한 임베딩으로, 고정된 모델이 특정 다운스트림 작업에 대해 원하는 출력을 생성하도록 안내합니다. 이 접근 방식은 작업별 적응에 필요한 계산 비용과 저장 공간을 획기적으로 줄여주는데, 이는 Google AI 연구 논문 원본에 설명되어 있습니다.

핵심 아이디어는 수십억 개의 매개변수가 있을 수 있는 전체 모델을 재학습하거나 미세 조정하는 대신 작업당 수천 또는 수백만 개의 추가 매개변수(소프트 프롬프트)만을 학습시키는 것입니다. 이렇게 하면 전체 모델 사본을 만들지 않고도 미리 학습된 단일 모델에 대해 각각 다른 작업에 맞게 조정된 여러 개의 전문화된 '프롬프트 모듈'을 만들 수 있습니다. 이 방법은 또한 모델이 새로운 작업에 대해 학습할 때 이전에 학습한 정보를 잊어버리는 치명적인 망각을 완화하는 데 도움이 됩니다.

실제 애플리케이션

프롬프트 튜닝을 통해 다양한 전문 애플리케이션을 위한 강력한 기초 모델을 사용자 지정할 수 있습니다.

  • 맞춤형 감정 분석: 특정 제품에 대한 고객 피드백을 분석하고자 하는 기업이 있습니다. 범용 감성 분석 모델은 산업별 전문 용어를 이해하지 못할 수 있습니다. 프롬프트 튜닝을 사용하면 자체적으로 라벨이 지정된 고객 리뷰에 대해 작은 소프트 프롬프트 세트를 학습시켜 BERT와 같은 대규모 모델을 조정할 수 있습니다. 그 결과 모델은 전체 모델 학습 없이도 피드백을 정확하게 분류하여 보다 미묘한 인사이트를 제공할 수 있습니다.
  • 전문 의료 챗봇: 한 의료 기관은 특정 의료 질환에 대한 환자의 질문에 답변하는 챗봇을 구축하고자 합니다. 대규모 의료용 LLM을 완전히 학습시키는 것은 리소스 집약적입니다. 대신 GPT-4와 같이 사전 학습된 모델에서 프롬프트 튜닝을 사용할 수 있습니다. 선별된 의료 데이터 세트에 대한 작업별 프롬프트를 학습시킴으로써 챗봇은 해당 영역에 대한 정확한 맥락 인식 답변을 제공하도록 학습하여 의료 분야의 강력한 AI를 더욱 쉽게 이용할 수 있습니다.

프롬프트 튜닝과 관련 개념 비교

프롬프트 튜닝과 유사한 기술을 구별하는 것이 중요합니다:

  • 미세 조정: 이 방법은 새로운 데이터 세트에 대해 사전 학습된 모델 매개변수의 상당 부분 또는 전체를 업데이트합니다. 계산 집약적이지만 모델의 내부 표현을 심층적으로 조정하여 더 높은 성능을 달성할 수 있는 경우도 있습니다. 모델 훈련 팁은 종종 미세 조정의 측면을 다룹니다.
  • 프롬프트 엔지니어링: 사전 학습된 모델을 안내하기 위해 효과적인 텍스트 기반 프롬프트(하드 프롬프트)를 수동으로 디자인하는 데 중점을 둡니다. 여기에는 입력 텍스트 자체에 지침과 예제를 만드는 것이 포함되며 새로운 매개 변수를 학습시키지 않습니다. 연쇄 사고 프롬프트와 같은 기법이 이 범주에 속합니다.
  • 프롬프트 강화: 이 기술은 사용자의 프롬프트가 AI 모델에 전송되기 전에 검색 증강 생성(RAG)을 사용하여 컨텍스트를 추가하는 등의 방법으로 프롬프트를 자동으로 강화하는 기술입니다. 프롬프트 튜닝과 달리 새로운 매개변수를 학습시키지 않고 입력 쿼리를 개선합니다.
  • LoRA(로우랭크 적응): 사전 학습된 모델의 기존 레이어( 주의 메커니즘 등)에 작고 훈련 가능한 저순위 행렬을 주입하는 또 다른 PEFT 기법입니다. 입력 임베딩에만 초점을 맞추는 프롬프트 튜닝에 비해 모델의 다른 부분을 업데이트합니다. 두 가지 모두 Hugging Face PEFT 라이브러리와 같은 라이브러리에서 흔히 볼 수 있습니다.

프롬프트 튜닝은 주로 자연어 처리(NLP)의 LLM에 적용되지만, 효율적인 적응이라는 핵심 원칙은 인공 지능(AI) 전반과 관련이 있습니다. 컴퓨터 비전(CV)에서는 객체 감지와 같은 작업에서 사용자 지정 데이터 세트에 대해 Ultralytics YOLO와 같은 모델을 완전히 미세 조정하는 것이 일반적이지만, 특히 대규모 멀티모달 모델의 경우 PEFT 방법이 주목을 받고 있습니다. Ultralytics HUB와 같은 플랫폼은 다양한 AI 모델을 훈련하고 배포하는 프로세스를 간소화하여 향후 이러한 효율적인 기술을 통합할 가능성이 있습니다.

울트라 애널리틱스 커뮤니티 가입

AI의 미래와 함께하세요. 글로벌 혁신가들과 연결, 협업, 성장하기

지금 가입하기
링크가 클립보드에 복사됨