매개변수 효율적 미세 조정(PEFT)을 활용하여 Ultralytics 같은 대규모 모델을 최적화하세요. GPU에서 컴퓨팅 비용을 절감하고 최첨단(SOTA) 결과를 달성하는 방법을 알아보세요.
매개변수 효율적 미세 조정(PEFT)은 대규모 사전 훈련 모델을 특정 작업에 맞춤화하면서도 계산 비용을 최소화하는 기계 학습(ML) 분야의 정교한 최적화 전략입니다. 현대 기초 모델이 수십억 개의 매개변수를 포함하도록 성장함에 따라, 네트워크의 모든 가중치를 업데이트하는 기존 훈련 방법은 하드웨어 및 에너지 측면에서 지나치게 비싼 비용이 발생하게 되었습니다. PEFT는 사전 훈련된 모델 가중치의 대부분을 고정하고 소수의 매개변수 하위 집합만 업데이트하거나 경량 어댑터 레이어를 추가함으로써 이 문제를 해결합니다. 이 접근법은 진입 장벽을 낮추어 개발자가 산업 규모 데이터 센터 없이도 소비자용 GPU에서 최첨단 성능을 달성할 수 있게 합니다.
PEFT의 핵심 원리는 이전이 학습에 기반합니다. 여기서 모델은 ImageNet과 같은 방대한 공개 데이터셋에서 학습된 특징 표현을 활용합니다. ImageNet 과 같은 대규모 공개 데이터셋에서 학습된 특징 표현을 활용하여 새로운 문제를 해결하는 것입니다. 표준 워크플로우에서 모델을 적응시키는 과정은 "전체 미세 조정(full fine-tuning)"을 포함할 수 있으며, 이때 역전 파(backpropagation) 는 신경망의 모든 매개변수를 조정합니다.
PEFT 기법(예: LoRA(저순위 적응))은 다른 접근법을 취합니다. 모델의 무거운 '백본'을 정적으로 유지하여 일반적인 지식을 보존하고, 특정 레이어에 작고 훈련 가능한 행렬을 주입합니다. 이는 모델이 새로운 정보를 학습하는 동안 원래 능력을 상실하는 현상인 치명적 망각을 방지합니다. 훈련 가능한 매개변수 수를 최대 99%까지 줄임으로써 PEFT는 저장 공간 요구량을 크게 감소시키고, 실시간 추론 과정에서 단일 기본 모델에 여러 작업 특화 어댑터를 교체하여 적용할 수 있게 합니다.
PEFT는 특히 에지 컴퓨팅과 데이터 프라이버시가 최우선인 산업 분야에서 매우 유용합니다.
Ultralytics 네트워크의 초기 레이어를 "고정"함으로써 매개변수 효율성을 달성하는 경우가 많습니다. 이를 통해 강력한 특징 추출기는 변경되지 않은 상태를 유지하면서 헤드 레이어나 후속 레이어만 새로운 클래스에 적응하도록 합니다. 이는 객체 탐지를 위한 PEFT 원칙의 실용적인 구현 방식입니다.
다음 예시는 백본의 첫 10개 레이어를 고정하여 컴퓨팅 자원을 절약하면서 YOLO26 모델을 훈련하는 방법을 보여줍니다:
from ultralytics import YOLO
# Load the YOLO26 model (latest stable version)
model = YOLO("yolo26n.pt")
# Train on a custom dataset with the 'freeze' argument
# freeze=10 keeps the first 10 layers static, updating only deeper layers
results = model.train(data="coco8.yaml", epochs=5, freeze=10)
이 프로세스를 확장하려는 팀을 위해 Ultralytics 데이터셋 관리, 자동화된 주석 작업, 그리고 클라우드에서 이러한 효율적인 훈련 실행을 모니터링할 수 있는 통합 인터페이스를 제공합니다.
적절한 모델 적응 전략을 선택하기 위해서는 PEFT를 유사한 용어들과 구분하는 것이 도움이 됩니다:
고성능 AI 접근성을 민주화함으로써 PEFT는 개발자가 자율주행 차량 및 스마트 제조를 위한 전문 도구를 슈퍼컴퓨터 인프라 없이 구축할 수 있게 합니다.