용어집

언더피팅

전문가 팁, 전략 및 실제 사례를 통해 머신러닝 모델에서 부적합을 식별하고, 예방하고, 해결하는 방법을 알아보세요.

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

머신러닝 영역에서 최적의 모델 성능을 달성하는 것은 미묘한 균형입니다. 모델 학습 중에 흔히 발생하는 문제 중 하나는 과소적합입니다. 머신러닝 모델이 너무 단순하여 학습 데이터의 기본 패턴을 포착하지 못할 때 과소적합이 발생합니다. 이는 기본적으로 모델이 데이터를 효과적으로 학습하지 못하여 학습 세트와 보이지 않는 데이터 모두에서 성능이 저하된다는 것을 의미합니다. 이는 모델에 데이터 내의 관계를 표현하는 데 필요한 복잡성이 부족하기 때문인 경우가 많습니다.

언더피팅의 원인은 무엇인가요?

머신러닝 모델의 적합도 미달에는 여러 가지 요인이 작용할 수 있습니다.

  • 모델 단순성: 데이터의 복잡성에 비해 너무 단순한 모델을 사용하는 것이 주요 원인입니다. 예를 들어, 매우 비선형적인 데이터에 선형 모델을 맞추려고 하면 과소 적합이 발생할 가능성이 높습니다. 복잡한 데이터 세트에는 컨볼루션 신경망(CNN) 과 같은 더 복잡한 모델이 필요한 경우가 많습니다.
  • 훈련 시간 부족: 모델이 충분한 기간 동안 훈련되지 않으면 기본 데이터 패턴을 학습할 기회가 충분하지 않을 수 있습니다. 충분한 학습을 통해 모델은 데이터에 더 잘 맞도록 가중치와 편향을 조정할 수 있습니다.
  • 관련 특징의 부족: 모델에 제공된 입력 피처가 기본 데이터 특성을 적절하게 나타내지 않으면 모델이 효과적으로 학습하는 데 어려움을 겪을 수 있습니다. 더 많은 정보를 제공하는 피처를 생성하는 피처 엔지니어링은 이러한 문제를 완화하는 데 도움이 될 수 있습니다.
  • 과도한 정규화: L1 또는 L2 정규화와 같은 정규화 기법은 과적합을 방지하는 데 유용하지만, 과도한 정규화는 모델을 지나치게 제약하여 과소적합을 초래할 수 있습니다.

미흡한 피팅 식별

일반적으로 훈련 및 유효성 검사 중에 모델의 성능 지표를 관찰하여 적합도 미달을 식별합니다. 주요 지표는 다음과 같습니다:

  • 높은 훈련 오류: 모델이 학습 데이터 세트에서 높은 오류율을 나타내며 학습 데이터를 제대로 학습하지 못하고 있음을 나타냅니다.
  • 높은 유효성 검사 오류: 마찬가지로, 이 모델은 유효성 검사 데이터 세트에서 높은 오류율을 보여 보이지 않는 데이터에 대한 일반화가 제대로 이루어지지 않았음을 시사합니다.
  • 성능 지표가 좋지 않습니다: 정확도, 정밀도, 리콜 또는 mAP와 같은 메트릭이 학습 및 검증 세트 모두에서 원하는 것보다 현저히 낮습니다. 자세한 내용은 YOLO 성능 지표를 참조하세요.

피팅 부족 문제 해결

적합성 부족을 해결하기 위해 몇 가지 전략을 사용할 수 있습니다:

  • 모델 복잡성을 높입니다: 더 복잡한 모델 아키텍처를 사용해 보세요. 예를 들어 선형 모델이 적합도가 낮다면 다항식 모델, 의사 결정 트리 또는 신경망( Ultralytics YOLOv8 )을 객체 감지 작업에 사용해 보세요.
  • 더 오래 훈련: 훈련 에포크 수를 늘려 모델이 데이터 패턴을 학습하는 데 더 많은 시간을 할애할 수 있도록 합니다. Ultralytics 허브와 같은 도구를 사용하면 효율적인 모델 학습과 모니터링이 가능합니다.
  • 기능 엔지니어링: 기존 데이터에서 더 관련성이 높고 유익한 피처를 엔지니어링합니다. 여기에는 새로운 기능을 만들거나, 기존 기능을 변형하거나, 더 관련성이 높은 기능의 하위 집합을 선택하는 작업이 포함될 수 있습니다.
  • 정규화 줄이기: 정규화를 사용 중인 경우 정규화 강도를 줄여 모델이 학습 데이터에 더 유연하게 맞출 수 있도록 합니다.
  • 더 많은 데이터 수집: 경우에 따라서는 학습 데이터가 충분하지 않아서 과소 적합이 발생할 수 있습니다. 학습 데이터 세트의 크기를 늘리면 모델에 학습할 더 많은 예시를 제공할 수 있습니다. Ultralytics 데이터 세트에서 사용할 수 있는 잠재적인 데이터 세트를 살펴보세요.

언더피팅의 실제 사례

  1. 이미지 분류를 위한 간단한 선형 회귀: 다양한 품종의 개를 분류하는 것과 같이 복잡한 이미지의 이미지 분류에 기본 선형 회귀 모델을 사용한다고 상상해 보세요. 선형 모델은 개 품종을 구분하는 복잡한 시각적 특징을 포착하기에는 너무 단순하기 때문에 적합도가 크게 떨어지고 분류 정확도가 떨어질 수 있습니다. 이미지 특징을 효과적으로 학습하기 위해서는 이미지넷과 같은 대규모 데이터 세트에서 훈련된 CNN이 더 적합한 모델입니다.
  2. 밀집된 장면에서 물체 감지를 위한 기본 모델: 복잡한 거리 장면에서 물체 감지를 위해 매우 얕은 신경망을 사용한다고 생각해 보세요. 이러한 단순한 모델은 복잡한 공간 관계와 문맥 정보를 학습할 수 없기 때문에 많은 물체, 특히 작거나 가려진 물체를 감지하지 못할 수 있습니다. 복잡성을 처리하려면 다음과 같은 보다 진보되고 심층적인 아키텍처를 Ultralytics YOLO11 와 같은 보다 고급적이고 심층적인 아키텍처를 사용해야 이러한 장면에서 객체의 복잡성과 밀도를 처리할 수 있습니다.

과소 피팅 대 과대 피팅

과소적합은 과적합과 반대되는 개념입니다. 모델이 너무 단순하여 학습 데이터를 적절하게 학습하지 못할 때 과적합이 발생하는 반면, 모델이 지나치게 복잡하여 노이즈와 관련 없는 세부 정보를 포함하여 학습 데이터를 너무 잘 학습할 때 과적합이 발생합니다. 과적합 모델은 학습 데이터에서는 뛰어난 성능을 보이지만 일반화에 실패하기 때문에 새로운 미지의 데이터에서는 성능이 저하됩니다. 머신 러닝의 목표는 과적합과 과적합을 모두 피하면서 균형을 이루는 모델을 찾아 우수한 일반화와 성능을 달성하는 것입니다. 교차 검증하이퍼파라미터 튜닝과 같은 기술은 이러한 균형을 찾는 데 매우 중요합니다.

모두 보기