용어집

미세 조정

특정 작업에 맞게 Ultralytics YOLO 같은 머신 러닝 모델을 미세 조정하세요. 여기에서 방법, 적용 사례 및 모범 사례를 알아보세요!

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

미세 조정은 대규모 데이터 세트(사전 학습된 모델)에서 이미 학습된 모델을 특정 작업과 관련된 소규모의 특정 데이터 세트에 대해 추가로 학습시키는 머신 러닝(ML) 에서 널리 사용되는 기법입니다. 이 접근 방식은 초기 훈련 과정에서 모델이 학습한 일반적인 지식을 활용하여 모델을 처음부터 다시 훈련할 필요 없이 보다 전문화된 영역에서 탁월한 능력을 발휘하도록 조정합니다. 따라서 상당한 시간과 컴퓨팅 리소스를 절약할 수 있어 컴퓨터 비전(CV)자연어 처리(NLP)와 같은 분야에서 일반적으로 사용됩니다. 다음과 같은 프레임워크 PyTorchTensorFlow 와 같은 프레임워크는 미세 조정을 구현하는 데 필요한 도구를 제공합니다.

미세 조정의 작동 방식

이 프로세스는 일반적으로 다음과 같이 사전 학습된 모델을 선택하는 것으로 시작됩니다. Ultralytics YOLO 모델과 같이 광범위한 데이터 세트에서 학습된 모델을 선택하는 것으로 시작됩니다. 이러한 모델(주로 비전용 컨볼루션 신경망(CNN) 또는 NLP용 트랜스포머 )은 초기 학습 데이터에서 일반적인 특징을 인식하는 방법을 이미 학습했습니다. 미세 조정 과정에서 모델 가중치(학습 중에 학습된 매개변수)는 새로운 더 작은 데이터 세트를 기반으로 조정됩니다. 종종 네트워크의 초기 레이어(가장자리나 텍스처와 같은 일반적인 특징을 학습)는 "고정"(가중치가 업데이트되지 않음)된 상태로 유지되는 반면, 이후 작업별 레이어는 재학습됩니다. 이 재학습은 일반적으로 원래 학습에 사용된 것보다 낮은 학습률을 사용하여 가중치를 조금씩 조정하여 이전에 학습한 지식을 유지하면서 새로운 작업의 뉘앙스에 적응하는 방식으로 이루어집니다. 이러한 메커니즘에 대한 자세한 내용은 fast.ai 과정과 같은 리소스에서 확인할 수 있습니다.

미세 조정을 사용하는 이유는 무엇인가요?

미세 조정은 몇 가지 주요 이점을 제공합니다:

  • 학습 시간 단축: 사전 학습된 모델로 시작하면 모델이 이미 기본 패턴을 이해하고 있기 때문에 처음부터 학습하는 것에 비해 필요한 시간이 크게 단축됩니다.
  • 데이터 요구 사항 감소: 미세 조정은 대규모 초기 데이터 세트에서 얻은 광범위한 지식을 기반으로 하기 때문에 제한된 작업별 데이터로도 좋은 결과를 얻을 수 있는 경우가 많습니다. Kaggle과 같은 플랫폼은 종종 미세 조정이 핵심 전략인 대회를 주최합니다.
  • 성능 향상: 대규모 데이터 세트에서 학습한 기능을 활용하면 미세 조정을 통해 특히 대상 데이터 세트가 작은 경우 대상 작업에 대한 정확도를 높이고 일반화를 개선할 수 있습니다.
  • 접근성: 초기 사전 교육에 필요한 방대한 계산 리소스가 없는 실무자도 최첨단 모델에 액세스할 수 있습니다. Hugging Face 은 미세 조정을 위한 사전 훈련된 모델의 방대한 저장소를 제공합니다.

프로세스 최적화를 위한 추가적인 모델 트레이닝 팁을 살펴보세요.

미세 조정과 관련 개념

미세 조정을 유사한 ML 개념과 구별하는 것이 중요합니다:

  • 이전 학습: 전이 학습은 한 작업에서 얻은 지식을 다른 관련 작업에 적용하는 광범위한 개념입니다. 미세 조정은 사전 학습된 모델의 가중치를 새 작업의 데이터에 대해 추가로 학습(조정)하는 전이 학습의 특정 방법입니다. 다른 전이 학습 방법에는 순전히 특징 추출에만 모델을 사용하는 방법이 포함될 수 있습니다. Andrew Ng의 머신 러닝 강좌와 같은 리소스에서 자세히 알아보세요.
  • 특징 추출: 이 접근 방식에서는 사전 학습된 모델(종종 최종 레이어가 제거된 상태)이 고정 특징 추출기로 사용됩니다. 그런 다음 출력(특징)은 새 데이터 세트에 대해 처음부터 학습된 새롭고 일반적으로 더 간단한 모델(예: SVM 또는 소규모 신경망)에 공급됩니다. 미세 조정과 달리, 미리 학습된 기본 모델의 가중치는 일반적으로 업데이트되지 않습니다.
  • 하이퍼파라미터 튜닝: 여기에는 학습 또는 미세 조정 프로세스가 시작되기 전에 최적의 하이퍼파라미터 세트(예: 학습 속도, 배치 크기, 에포크 수, 네트워크 아키텍처 선택)를 찾는 작업이 포함됩니다. 학습 프로세스의 구성을 최적화하는 반면, 미세 조정은 데이터를 기반으로 모델 가중치를 최적화합니다. Ultralytics 튜너와 같은 도구는 하이퍼파라미터 검색을 자동화합니다.

실제 애플리케이션

미세 조정은 다양한 도메인에서 널리 사용됩니다:

  • 의료 이미지 분석: ImageNet에서 사전 학습된 비전 모델은 폐렴이나 뇌종양과 같은 특정 상태를 감지하기 위해 엑스레이 또는 CT 스캔의 작은 데이터 세트에서 미세 조정할 수 있습니다. 이는 의료 진단을 위해 모양과 질감을 인식하는 모델의 학습된 능력을 활용합니다. 이 분야의 연구는 종종 arXiv와 같은 플랫폼에 게시됩니다.
  • 특수 물체 감지: COCO에서 사전 학습된 YOLO 같은 일반 객체 감지기는 제조 품질 관리에서 AI의 특정 유형의 결함이나 야생동물 보호를 위한 특정 동물 종과 같은 틈새 환경에서 특정 항목을 식별하도록 미세 조정할 수 있습니다.
  • 맞춤형 챗봇 및 텍스트 분석: 회사별 문서나 고객 서비스 로그에 대해 BERT ( Google AI 블로그에서 설명) 또는 OpenAI의 GPT-3와 같은 대규모 언어 모델을 미세 조정하여 특화된 질문 답변 시스템을 만들거나 특정 산업에 대한 매우 정확한 감정 분석을 수행할 수 있습니다. 스탠포드 NLP 그룹은 NLP 연구에 핵심적인 기여를 하고 있습니다.

컴퓨터 비전 커뮤니티에서 더 많은 애플리케이션을 살펴보세요.

Ultralytics YOLO 모델 미세 조정하기

Ultralytics YOLO 모델 미세 조정을 위한 강력한 지원을 제공합니다. 사용자는 사전 훈련된 가중치(예: COCO에서 훈련된 모델)를 쉽게 로드하고 탐지, 세분화 또는 분류와 같은 작업을 위해 자체 사용자 지정 데이터 세트에 대한 훈련을 계속할 수 있습니다. Ultralytics 문서에서는 훈련 프로세스에 대한 자세한 가이드를 제공하여 사용자가 다음과 같은 최신 모델을 적용할 수 있도록 지원합니다. YOLO11 과 같은 최신 모델을 특정 컴퓨터 비전 과제에 맞게 조정할 수 있습니다. Ultralytics HUB와 같은 플랫폼은 맞춤형 훈련 프로세스를 더욱 간소화합니다. 이러한 적응성은 농업용 AI부터 로봇 공학에 이르기까지 다양한 애플리케이션에서 최적의 성능을 달성하는 데 핵심적인 역할을 합니다. 전이 학습 기술에 대한 자세한 정보는 Coursera의 딥 러닝 전문 교육 플랫폼과 같은 교육 플랫폼에서, 연구 인사이트는 Papers with Code 또는 Distill.pub과 같은 사이트에서 확인할 수 있습니다.

모두 보기