용어집

매개변수 효율적 미세 조정(PEFT)

매개변수 효율적 미세 조정(PEFT) 알아보기: 최소한의 리소스로 대규모 AI 모델을 효율적으로 조정하세요. NLP, 비전 등의 작업을 최적화하세요!

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

매개변수 효율적 미세 조정(PEFT)은 사전 학습된 대규모 모델을 최소한의 계산 오버헤드로 새로운 작업에 적용하도록 설계된 머신 러닝 접근 방식입니다. PEFT 기술은 파라미터의 작은 하위 집합만 미세 조정함으로써 미세 조정 프로세스를 보다 효율적으로 만들어 리소스 요구 사항을 줄이고 사전 학습된 모델에 인코딩된 일반적인 지식을 유지합니다.

PEFT의 중요성

기존의 미세 조정에는 모델의 모든 파라미터를 업데이트하는 작업이 포함되는데, 특히 트랜스포머 기반 아키텍처와 같은 대규모 모델의 경우 계산 비용이 많이 들고 메모리 사용량이 많을 수 있습니다. PEFT는 사전 학습된 모델의 대부분을 변경하지 않고 일부 파라미터만 수정하여 이 문제를 해결합니다. 이 접근 방식은 컴퓨팅 리소스가 제한되어 있거나 매번 전체 모델을 다시 학습시키지 않고 사용자 지정이 필요한 여러 작업을 처리할 때 특히 유용합니다.

PEFT 기술은 의료, 농업, 소매업 등 다양한 산업에서 대규모 모델을 실제로 적용할 수 있도록 지원하는 리소스 효율적인 AI 솔루션에 대한 수요 증가와 맞물려 있습니다.

PEFT의 핵심 기술

파라미터를 효율적으로 미세 조정하기 위한 몇 가지 접근 방식이 개발되었습니다:

  • 로우랭크 적응(LoRA): LoRA는 작업별 로우랭크 업데이트를 모델에 주입하여 이러한 추가 매개변수만 최적화하여 새로운 작업에 적응하도록 합니다.
  • 어댑터 레이어: 일반적으로 레이어 사이에 모델 아키텍처에 삽입되는 작은 신경망 모듈로, 작업별 조정을 학습하기 위해 사용됩니다.
  • 프롬프트 튜닝: 이 방법은 모델에 제공되는 입력 프롬프트만 조정하고 모델 매개변수는 변경하지 않는 방법입니다. 프롬프트 튜닝에 대해 자세히 알아보세요.
  • 접두사 튜닝: 프롬프트 튜닝과 마찬가지로 접두사 튜닝은 입력 데이터의 접두사 역할을 하는 일련의 작업별 매개변수를 최적화합니다.

각 방법은 교육 시간과 리소스 사용량을 줄이면서 다운스트림 작업의 강력한 성능을 유지하는 것을 목표로 합니다.

PEFT의 애플리케이션

PEFT는 특히 리소스 제약이나 작업의 다양성이 주요 고려 사항인 광범위한 AI 및 머신러닝 영역에서 적용 사례를 찾아냈습니다.

예 1: 자연어 처리(NLP)

NLP에서는 감정 분석, 요약 또는 도메인별 질문 답변과 같은 특정 작업에 GPT-3 또는 GPT-4와 같은 대규모 언어 모델을 적용하는 데 PEFT 기술이 널리 사용됩니다. 예를 들어, 의료 텍스트 분석을 위해 LoRA를 적용하여 GPT-3를 미세 조정함으로써 계산 요구 사항을 최소화하면서 정확한 예측을 가능하게 할 수 있습니다.

예 2: 비전 AI

컴퓨터 비전에서 PEFT는 다음과 같이 사전 학습된 모델을 미세 조정하는 데 사용됩니다. Ultralytics YOLO 과 같은 사전 학습된 모델을 미세 조정하는 데 사용됩니다. 모델 가중치의 일부만 미세 조정함으로써 조직은 대규모 재교육 없이도 야생동물 모니터링이나 산업 품질 관리와 같은 작업에 맞는 맞춤형 솔루션을 신속하게 배포할 수 있습니다.

PEFT의 이점

  1. 리소스 효율성: 컴퓨팅 및 메모리 요구 사항을 줄여 엣지 디바이스나 리소스가 제한된 환경에서도 배포할 수 있습니다.
  2. 작업 유연성: 전체 모델을 재교육하지 않고도 여러 다운스트림 작업에 빠르게 적응할 수 있어 의료 및 제조와 같은 산업에 특히 유용합니다.
  3. 비용 효율성: 작은 매개변수 하위 집합에 집중하여 대규모 모델을 미세 조정하는 데 드는 비용을 낮춥니다.
  4. 일반 지식의 보존: 사전 학습된 모델의 범용 기능은 그대로 유지하면서 업무별 전문 지식을 추가합니다.

기존 미세 조정과의 차이점

기존의 미세 조정에서는 전체 모델을 업데이트하기 때문에 계산 비용이 많이 들고 특히 데이터 세트가 작은 경우 과적합이 발생하기 쉽습니다. 반면에 PEFT는 최소한의 파라미터를 최적화하는 데 집중하여 계산 오버헤드를 크게 줄이면서 비슷한 결과를 얻을 수 있습니다.

또한 PEFT는 사전 학습된 모델을 일부 또는 모든 레이어를 재학습하여 새로운 작업에 적용하는 전이 학습과도 다릅니다. 전이 학습에는 전체 모델 재학습이 포함될 수 있지만, PEFT는 매개변수 업데이트를 최소화하도록 명시적으로 설계되었습니다.

실제 영향

PEFT의 도입으로 리소스가 제한된 환경에서 AI 솔루션의 확산이 가능해졌습니다. 예를 들어, 농업 분야에서 PEFT는 비전 모델을 미세 조정하여 저전력 장치에서 작동하면서 농작물 질병을 정밀하게 감지할 수 있습니다. 마찬가지로 의료 분야에서도 PEFT는 Ultralytics 의료 솔루션에서 강조된 것처럼 특수 데이터 세트를 사용하여 종양 감지와 같은 작업에 모델을 적용하는 데 용이합니다.

PEFT는 또한 사용자 지정 모델의 교육 및 배포를 간소화하는 Ultralytics 허브와 같은 도구에 통합되어 사용자가 사전 학습된 모델을 고유한 요구 사항에 맞게 효율적으로 조정할 수 있도록 합니다.

결론

매개변수 효율적 미세 조정(PEFT)은 AI의 접근성과 적응성을 높이는 데 있어 중요한 진전입니다. PEFT는 대규모 모델을 새로운 작업에 효율적으로 적용할 수 있게 함으로써 업계가 비용과 컴퓨팅 수요를 줄이면서 AI의 잠재력을 최대한 활용할 수 있도록 지원합니다. 자연어 처리, 컴퓨터 비전 등을 아우르는 애플리케이션을 통해 PEFT는 AI 기술 발전의 중추적인 역할을 계속하고 있습니다.

모두 보기