Yolo 비전 선전
선전
지금 참여하기
용어집

파라미터 효율적 미세 조정 (PEFT)

매개변수 효율적 미세 조정(PEFT)을 활용하여 Ultralytics 같은 대규모 모델을 최적화하세요. GPU에서 컴퓨팅 비용을 절감하고 최첨단(SOTA) 결과를 달성하는 방법을 알아보세요.

매개변수 효율적 미세 조정(PEFT)은 대규모 사전 훈련 모델을 특정 작업에 맞춤화하면서도 계산 비용을 최소화하는 기계 학습(ML) 분야의 정교한 최적화 전략입니다. 현대 기초 모델이 수십억 개의 매개변수를 포함하도록 성장함에 따라, 네트워크의 모든 가중치를 업데이트하는 기존 훈련 방법은 하드웨어 및 에너지 측면에서 지나치게 비싼 비용이 발생하게 되었습니다. PEFT는 사전 훈련된 모델 가중치의 대부분을 고정하고 소수의 매개변수 하위 집합만 업데이트하거나 경량 어댑터 레이어를 추가함으로써 이 문제를 해결합니다. 이 접근법은 진입 장벽을 낮추어 개발자가 산업 규모 데이터 센터 없이도 소비자용 GPU에서 최첨단 성능을 달성할 수 있게 합니다.

효율성의 메커니즘

PEFT의 핵심 원리는 이전이 학습에 기반합니다. 여기서 모델은 ImageNet과 같은 방대한 공개 데이터셋에서 학습된 특징 표현을 활용합니다. ImageNet 과 같은 대규모 공개 데이터셋에서 학습된 특징 표현을 활용하여 새로운 문제를 해결하는 것입니다. 표준 워크플로우에서 모델을 적응시키는 과정은 "전체 미세 조정(full fine-tuning)"을 포함할 수 있으며, 이때 역전 파(backpropagation) 는 신경망의 모든 매개변수를 조정합니다.

PEFT 기법(예: LoRA(저순위 적응))은 다른 접근법을 취합니다. 모델의 무거운 '백본'을 정적으로 유지하여 일반적인 지식을 보존하고, 특정 레이어에 작고 훈련 가능한 행렬을 주입합니다. 이는 모델이 새로운 정보를 학습하는 동안 원래 능력을 상실하는 현상인 치명적 망각을 방지합니다. 훈련 가능한 매개변수 수를 최대 99%까지 줄임으로써 PEFT는 저장 공간 요구량을 크게 감소시키고, 실시간 추론 과정에서 단일 기본 모델에 여러 작업 특화 어댑터를 교체하여 적용할 수 있게 합니다.

실제 애플리케이션

PEFT는 특히 에지 컴퓨팅과 데이터 프라이버시가 최우선인 산업 분야에서 매우 유용합니다.

  • 농업 분야 AI: 농업 기술 스타트업들은 종종 배터리 수명과 처리 능력이 제한된 드론에 모델을 배포합니다. PEFT를 사용하면 엔지니어들은 YOLO26과 같은 고효율 모델을 가져와 소규모 맞춤형 데이터셋을 활용해 가을군집나방과 같은 detect 지역 해충을 detect 미세 조정할 수 있습니다. 백본을 고정함으로써 노트북에서 빠르게 훈련을 수행할 수 있으며, 결과 모델은 온보드 처리에 충분할 만큼 가벼운 상태를 유지합니다.
  • 의료 분야 인공지능: 의료 영상 분석에서 주석이 달린 데이터는 흔히 부족하고 확보 비용이 높습니다. 병원들은 PEFT를 활용해 범용 비전 모델을 적응시켜 MRI 스캔의 이상 징후를 식별합니다. 기본 매개변수가 고정되어 있기 때문에, 소규모 데이터셋에서 과적합 현상이 덜 발생하여 진단 성능의 견고성을 보장함과 동시에 환자 데이터 프라이버시를 보호합니다.

Ultralytics 활용한 동결 레이어 구현

Ultralytics 네트워크의 초기 레이어를 "고정"함으로써 매개변수 효율성을 달성하는 경우가 많습니다. 이를 통해 강력한 특징 추출기는 변경되지 않은 상태를 유지하면서 헤드 레이어나 후속 레이어만 새로운 클래스에 적응하도록 합니다. 이는 객체 탐지를 위한 PEFT 원칙의 실용적인 구현 방식입니다.

다음 예시는 백본의 첫 10개 레이어를 고정하여 컴퓨팅 자원을 절약하면서 YOLO26 모델을 훈련하는 방법을 보여줍니다:

from ultralytics import YOLO

# Load the YOLO26 model (latest stable version)
model = YOLO("yolo26n.pt")

# Train on a custom dataset with the 'freeze' argument
# freeze=10 keeps the first 10 layers static, updating only deeper layers
results = model.train(data="coco8.yaml", epochs=5, freeze=10)

이 프로세스를 확장하려는 팀을 위해 Ultralytics 데이터셋 관리, 자동화된 주석 작업, 그리고 클라우드에서 이러한 효율적인 훈련 실행을 모니터링할 수 있는 통합 인터페이스를 제공합니다.

PEFT와 관련 개념의 구분

적절한 모델 적응 전략을 선택하기 위해서는 PEFT를 유사한 용어들과 구분하는 것이 도움이 됩니다:

  • 미세 조정: 흔히 "전체 미세 조정"이라 불리는 이 과정은 모델의 모든 매개변수를 업데이트합니다. 최대의 유연성을 제공하지만, 계산 비용이 높으며 각 작업마다 모델의 전체 사본을 저장해야 합니다. PEFT는 효율성에 초점을 맞춘 미세 조정의 하위 범주입니다.
  • 프롬프트 엔지니어링: 이는 모델의 내부 가중치를 변경하지 않고 출력을 유도하기 위해 텍스트 입력을 설계하는 것을 의미합니다. 반면 PEFT는 모델이 데이터를 처리하는 방식을 영구적으로 변경하기 위해 가중치나 어댑터의 일부를 수학적으로 변형합니다.
  • 지식 증류: 이 기법은 소규모 학생 모델을 훈련시켜 대규모 교사 모델을 모방하도록 합니다. 효율적인 모델을 생성하지만, 이는 압축 기법인 반면 PEFT는 기존 모델에 새로운 기술을 가르치는 적응 기법입니다.

고성능 AI 접근성을 민주화함으로써 PEFT는 개발자가 자율주행 차량 스마트 제조를 위한 전문 도구를 슈퍼컴퓨터 인프라 없이 구축할 수 있게 합니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기