용어집

미세 조정

특정 작업에 맞게 Ultralytics YOLO 같은 머신 러닝 모델을 미세 조정하세요. 여기에서 방법, 적용 사례 및 모범 사례를 알아보세요!

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

미세 조정은 대규모 데이터 세트(사전 학습된 모델)에서 이미 학습된 모델을 가지고 특정 작업과 관련된 소규모의 특정 데이터 세트에서 추가로 학습시키는 머신 러닝(ML) 의 인기 있는 기법입니다. 이 접근 방식은 초기 훈련 과정에서 모델이 학습한 일반적인 지식을 활용하여 모델을 처음부터 다시 훈련할 필요 없이 보다 전문화된 영역에서 탁월한 능력을 발휘하도록 조정하므로 상당한 시간과 컴퓨팅 리소스를 절약할 수 있습니다. 이는 컴퓨터 비전(CV)자연어 처리(NLP)와 같은 분야에서 흔히 사용되는 방식입니다.

미세 조정의 작동 방식

이 프로세스는 일반적으로 다음과 같이 사전 학습된 모델을 선택하는 것으로 시작됩니다. Ultralytics YOLO 모델과 같이 광범위한 데이터 세트에서 학습된 모델을 선택하는 것으로 시작됩니다. 이러한 모델은 이미 초기 학습 데이터에서 일반적인 특징을 인식하는 방법을 학습했습니다. 미세 조정 중에 모델 가중치는 새롭고 더 작은 데이터 집합을 기반으로 조정됩니다. 종종 네트워크의 초기 레이어(일반적인 특징을 학습하는 레이어)는 "고정"(가중치가 업데이트되지 않음)된 상태로 유지되는 반면, 나중에 작업별 레이어는 재학습됩니다. 이러한 재학습은 일반적으로 원래 학습에 사용된 것보다 낮은 학습 속도를 사용하여 가중치를 더 작게 조정하여 이전에 학습한 지식을 유지하면서 새로운 작업의 뉘앙스에 적응하는 방식으로 이루어집니다.

미세 조정과 관련 개념

미세 조정을 유사한 ML 개념과 구별하는 것이 중요합니다:

  • 전이 학습: 미세 조정은 전이 학습의 더 넓은 범주에 속하는 특정 방법입니다. 전이 학습은 한 작업을 위해 개발된 모델을 두 번째 작업의 모델의 시작점으로 재사용하는 모든 기법을 포괄합니다. 미세 조정은 사전 학습된 모델의 가중치를 조정하는 반면, 다른 전이 학습 접근 방식에서는 사전 학습된 모델을 고정 특징 추출기로만 사용할 수 있습니다.
  • 처음부터 훈련하기: 이 방법은 모델의 가중치를 무작위로 초기화하고 대상 데이터 세트에 대해서만 훈련하는 방식입니다. 미세 조정에 비해 훨씬 더 많은 데이터와 계산 능력이 필요하며, 사전 학습된 모델의 일반적인 지식 기반이 부족하기 때문에 소규모 데이터 세트에서는 성능이 좋지 않은 경우가 많습니다. 모델 학습 팁에 대한 지침은 도움말 문서에서 확인할 수 있습니다.
  • 하이퍼파라미터 튜닝: 이 프로세스는 학습 프로세스가 시작되기 전에 최적의 구성 설정(학습 속도, 배치 크기, 최적화 도구 선택과 같은 하이퍼파라미터)을 찾는 데 중점을 둡니다. 반대로 미세 조정은 새로운 데이터를 기반으로 모델의 내부 매개변수(가중치)를 조정하는 학습 프로세스 자체의 일부입니다. Ultralytics 튜너와 같은 도구는 하이퍼파라미터 최적화를 자동화합니다.

미세 조정을 사용하는 이유는 무엇인가요?

미세 조정은 몇 가지 이점을 제공합니다:

  • 교육 시간 단축: 기존 지식을 활용하므로 교육 기간이 단축됩니다.
  • 데이터 요구 사항 감소: 모델이 처음부터 모든 것을 학습하는 것이 아니므로 소규모의 작업별 데이터 세트에도 효과적입니다.
  • 향상된 성능: 제한된 데이터로 처음부터 학습된 모델에 비해 전문화된 작업에서 더 높은 정확도를 달성하는 경우가 많습니다.
  • 최첨단 아키텍처에 액세스: 사용자가 초기 사전 교육에 필요한 대규모 리소스 없이도 트랜스포머나 고급 CNN과 같은 강력하고 복잡한 모델을 활용할 수 있습니다.

실제 애플리케이션

미세 조정은 다양한 도메인에서 널리 사용됩니다:

  1. 특수 물체 감지: 일반 물체 감지를 위해 사전 학습된 Ultralytics YOLO 모델을 특정 산업 부품의 맞춤형 데이터 세트를 사용하여 미세 조정하여 제조 분야에서 AI를 위한 고성능 결함 감지 시스템을 만들 수 있습니다. 마찬가지로 의료 이미지 분석에 맞게 미세 조정하여 뇌종양과 같은 특정 상태를 감지할 수 있습니다. Ultralytics HUB는 데이터 세트를 관리하고 이러한 맞춤형 학습 프로세스를 간소화할 수 있는 플랫폼을 제공합니다.
  2. 사용자 지정 언어 작업: 다양한 인터넷 텍스트에 대해 OpenAI가 사전 학습한 GPT-3와 같은 대규모 언어 모델을 법률 문서 데이터 세트에서 미세 조정하여 법률 텍스트 요약 또는 고객 서비스 기록에 대한 전문 챗봇 응답 성능을 향상시킬 수 있습니다. 또 다른 예로는 제품 리뷰나 소셜 미디어 게시물에 대한 특정 감정 분석 작업을 위해 BERT 모델을 미세 조정하는 것이 있는데, 이는 Google AI 블로그와 같은 리소스에 자세히 설명되어 있습니다.

Ultralytics YOLO 모델 미세 조정하기

Ultralytics YOLO 모델 미세 조정을 위한 강력한 지원을 제공합니다. 사용자는 사전 훈련된 가중치(예: ImageNet 또는 COCO에서 훈련된 모델)를 쉽게 로드하고 탐지, 세분화 또는 분류와 같은 작업을 위해 자체 데이터 세트에 대한 훈련을 계속할 수 있습니다. Ultralytics 설명서는 훈련 프로세스에 대한 자세한 가이드를 제공하여 사용자가 다음과 같은 최신 모델을 적용할 수 있도록 지원합니다. YOLO11 와 같은 최신 모델을 특정 컴퓨터 비전 과제에 맞게 조정할 수 있습니다. 이러한 적응성은 농업용 AI부터 로봇 공학에 이르기까지 다양한 애플리케이션에서 최적의 성능을 달성하는 데 핵심적인 역할을 합니다. 전이 학습 기법에 대한 자세한 내용은 Coursera와 같은 교육 플랫폼에서 확인할 수 있습니다.

모두 보기