머신 러닝에서 과적합을 식별하고, 예방하고, 해결하는 방법을 알아보세요. 모델 일반화와 실제 성능을 개선하는 기술을 알아보세요.
머신 러닝(ML) 에서 과적합은 모델이 학습 데이터를 너무 잘 학습하여 기본 패턴 대신 노이즈와 무작위 변동을 포착할 때 발생합니다. 이로 인해 학습 데이터 세트의 성능은 뛰어나지만 보이지 않는 새로운 데이터에 대한 일반화가 제대로 이루어지지 않습니다. 기본적으로 모델이 너무 복잡해지고 훈련 예시에만 맞춤화되어 개념을 이해하기보다는 답을 암기하는 것과 비슷해집니다. 이는 특히 물체 감지 및 이미지 세분화와 같은 작업을 위해 Ultralytics YOLO 사용되는 신경망과 같은 복잡한 알고리즘을 사용하여 AI 모델을 훈련할 때 흔히 발생하는 문제입니다.
ML 모델은 학습 데이터의 오류를 최소화하는 것을 목표로 하기 때문에 과적합이 발생합니다. 모델에 과도한 복잡성(예: 딥러닝 모델에 너무 많은 파라미터나 레이어)이 있는 경우, 학습 세트에 존재하는 임의의 노이즈까지 모델에 맞출 수 있습니다. 이러한 노이즈는 실제 기본 패턴을 나타내지 않으며 새로운 데이터 세트에 존재하지 않을 가능성이 높습니다. 특정 날에 누군가의 정확한 치수에 맞춰 정장을 완벽하게 맞춘다고 상상해 보세요. 체중이 약간 변동하거나 다른 사람이 입어보면 잘 맞지 않을 수 있습니다. 머신러닝에서는 학습 데이터에 대한 이러한 '완벽한 맞춤'이 실제 데이터에 대한 유연성과 성능 저하를 초래하며, 이를 흔히 ' 일반화 불량'이라고 합니다.
그 반대의 문제는 모델이 너무 단순하여 데이터의 기본 구조를 포착하지 못하는 과소 적합성입니다. 과소적합 모델은 학습이 충분하지 않기 때문에 학습 데이터와 새로운 데이터 모두에서 성능이 저하됩니다. 목표는 종종 편향-편차 트레이드 오프의 맥락에서 논의되는 최적의 균형을 찾아 보이지 않는 데이터에도 잘 일반화할 수 있는 모델을 만드는 것입니다. 높은 분산은 과적합의 특징이고, 높은 편향은 과소적합의 특징입니다. 이 트레이드오프 개념을 이해하는 것은 모델 개발에 매우 중요합니다.
과적합은 일반적으로 학습 데이터 세트에서 모델의 성능을 별도의 검증 데이터 세트와 비교하여 식별합니다.
과적합을 완화하고 모델 일반화를 개선하는 데 도움이 되는 몇 가지 기법이 있습니다:
과적합을 이해하고 해결함으로써 개발자는 보다 안정적이고 효과적인 AI 모델을 구축할 수 있습니다. Ultralytics HUB와 같은 도구는 실험 추적 및 모델 평가를 지원하여 모델 개발 수명 주기 동안 과적합을 감지하고 완화할 수 있도록 도와줍니다.