최소한의 리소스로 대규모 AI 모델을 조정하기 위한 매개변수 효율적 미세 조정(PEFT)에 대해 알아보세요. 비용을 절감하고, 과적합을 방지하고, 배포를 최적화하세요!
파라미터 효율적 미세 조정(PEFT)은 소수의 모델 파라미터만 미세 조정하면서 사전 학습된 모델을 특정 다운스트림 작업에 효율적으로 적용하도록 설계된 머신 러닝의 일련의 기술입니다. 이 접근 방식은 전체 미세 조정이 계산 비용이 많이 들고 리소스 집약적일 수 있는 대규모 언어 모델(LLM) 및 기타 대규모 AI 모델 시대에 특히 적합합니다. PEFT 방법은 계산 및 저장 비용을 크게 줄여주므로 이러한 대규모 모델을 다양한 애플리케이션에 맞게 사용자 정의하고 리소스가 제한된 환경에 배포할 수 있습니다.
매개변수 효율적 미세 조정의 중요성은 강력한 사전 학습된 모델에 대한 액세스를 대중화할 수 있다는 점에서 비롯됩니다. 개발자와 연구자는 대규모 모델을 처음부터 훈련하거나 새로운 작업마다 모든 파라미터를 미세 조정하는 대신, PEFT를 사용하면 원래 파라미터의 일부만 조정하여 비슷한 성능을 달성할 수 있습니다. 이러한 효율성에는 몇 가지 주요 이점과 응용 분야가 있습니다:
PEFT의 실제 적용 분야는 다양하고 빠르게 확장되고 있습니다. 예를 들어 자연어 처리(NLP)에서는 감정 분석, 텍스트 요약 또는 질문 답변과 같은 특정 작업을 위해 GPT-3 또는 GPT-4와 같은 기초 모델을 조정하는 데 PEFT가 사용됩니다. 컴퓨터 비전에서는 PEFT를 사전 학습된 이미지 모델에 적용하여 의료 이미지 분석이나 특정 영역의 물체 감지 (예: 제조 결함 감지 또는 야생동물 보호에서 다양한 종 식별)와 같은 작업에 특화할 수 있습니다.
PEFT는 전이 학습과 미세 조정의 원리를 기반으로 합니다. 전이 학습은 한 문제를 해결하면서 얻은 지식을 다른 관련 문제에 적용하기 위해 활용하는 것을 포함합니다. 여기서 미세 조정은 사전 학습된 모델을 새로운 작업별 데이터 세트에 대해 추가로 학습하는 프로세스입니다.
그러나 기존의 미세 조정에는 사전 학습된 모델 파라미터의 전부 또는 상당 부분을 업데이트하는 작업이 수반되는 경우가 많습니다. PEFT는 이러한 파라미터의 일부만 수정하는 기법을 도입하여 차별화됩니다. 일반적인 PEFT 기법에는 다음이 포함됩니다:
이러한 방법은 모든 모델 매개변수를 업데이트하는 전체 미세 조정 및 덜 중요한 연결을 제거하여 모델 크기를 줄이는 모델 가지치기와는 대조적입니다. PEFT는 크기 축소나 완전한 재학습보다는 효율적인 적응에 중점을 둡니다.
요약하자면, 파라미터 효율적 미세 조정은 대규모 AI 모델을 보다 실용적이고 접근하기 쉽게 만드는 데 있어 중요한 발전입니다. PEFT는 고성능을 유지하면서 계산 및 스토리지 오버헤드를 크게 줄임으로써 더 광범위한 커뮤니티가 다음과 같은 모델을 통해 달성할 수 있는 애플리케이션을 포함하여 다양하고 전문적인 애플리케이션에 최첨단 AI의 성능을 활용할 수 있도록 지원합니다. Ultralytics YOLO11.