용어집

정규화

L1, L2, 드롭아웃, 조기 중지 등의 정규화 기법을 통해 과적합을 방지하고 모델 일반화를 개선하세요. 자세히 알아보세요!

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

정규화는 머신러닝에서 과적합을 방지하고 보이지 않는 데이터에 대한 모델의 일반화 능력을 향상시키는 데 사용되는 중요한 기술입니다. 정규화는 모델 훈련 과정에 추가적인 제약 조건을 추가하여 기본 패턴을 학습하는 대신 훈련 데이터를 암기하는 지나치게 복잡한 모델을 방지하는 방식으로 작동합니다. 이를 통해 머신 러닝의 궁극적인 목표인 보이지 않는 새로운 데이터에 대해 더 나은 성능을 발휘하는 모델을 만들 수 있습니다.

정규화란 무엇인가요?

기본적으로 정규화는 훈련 중에 복잡성을 불이익을 주어 모델을 단순화하는 것을 목표로 합니다. 매개변수가 많은 복잡한 모델은 학습 데이터의 노이즈를 맞추기 쉬워 새로운 데이터에 대한 성능이 저하되기 쉽습니다. 정규화 방법은 모델이 최소화하려고 하는 손실 함수에 페널티 항을 도입합니다. 이 페널티는 모델이 특징에 지나치게 큰 가중치를 할당하는 것을 방지하여 더 단순하고 일반화 가능한 모델을 촉진합니다. 정규화는 모델 복잡성을 제어함으로써 훈련 데이터를 잘 맞추는 것과 새로운 데이터에 일반화하는 것 사이의 균형을 유지하여 편향성-편차 트레이드오프를 해결합니다.

정규화 유형

머신 러닝에는 여러 가지 정규화 기법이 일반적으로 사용되며, 각 기법에는 모델 복잡성에 불이익을 주는 고유한 접근 방식이 있습니다. 가장 많이 사용되는 기법은 다음과 같습니다:

  • L1 정규화(올가미): 가중치의 절대값에 비례하는 페널티를 추가합니다. 이렇게 하면 모델의 희소성을 높여 일부 특징 가중치를 0으로 만들고 특징 선택을 효과적으로 수행할 수 있습니다. L1 정규화는 많은 특징이 서로 관련이 없을 수 있는 고차원 데이터를 다룰 때 특히 유용할 수 있습니다.
  • L2 정규화(리지): 가중치의 크기에 제곱에 비례하는 페널티를 추가합니다. 이렇게 하면 모든 가중치가 0을 향해 축소되지만, L1과 달리 가중치가 정확히 0으로 설정되는 경우는 거의 없습니다. L2 정규화는 덜 중요한 특징을 완전히 제거하지 않고도 그 영향을 줄여 더욱 안정적이고 강력한 모델을 만들어냅니다.
  • 드롭아웃: 신경망에 특화된 기술인 드롭아웃 레이어는 각 훈련 반복 중에 뉴런의 일부를 무작위로 0으로 설정합니다. 이렇게 하면 뉴런이 학습 데이터에 과도하게 공동 적응하는 것을 방지하고 네트워크가 보다 강력하고 독립적인 특징을 학습하도록 합니다. 드롭아웃은 과적합을 줄이고 딥러닝 모델의 일반화를 개선하는 데 효과적입니다.
  • 조기 중지: 학습 중 유효성 검사 데이터 세트에 대한 모델의 성능을 모니터링하고 유효성 검사 성능이 저하되기 시작하면 학습을 중지합니다. 이렇게 하면 모델이 학습 데이터를 너무 잘 학습하여 일반화 능력을 잃는 것을 방지할 수 있습니다. 조기 중지는 간단하면서도 효과적인 형태의 정규화입니다.

실제 애플리케이션

정규화는 모델 성능과 안정성을 개선하기 위해 AI와 머신러닝의 다양한 영역에 널리 적용됩니다. 다음은 몇 가지 예시입니다:

  • 이미지 분류: Ultralytics YOLO 모델을 사용하는 이미지 분류 작업에서는 특히 작은 데이터 세트에서 학습할 때 과적합을 방지하기 위해 손실 함수에 L2 정규화를 사용하는 경우가 많습니다. 하이퍼파라미터 튜닝과 같은 기술을 사용하여 최적의 정규화 강도를 찾고 정확도와 일반화의 균형을 맞출 수 있습니다.
  • 자연어 처리(NLP): 감정 분석이나 텍스트 생성에 모델을 사용할 때, 드롭아웃 정규화는 복잡한 신경망이 학습 텍스트를 암기하는 것을 방지하고 대신 보다 일반적인 언어 패턴을 학습하는 데 중요한 역할을 할 수 있습니다. 그 결과 보이지 않는 새로운 텍스트를 더 잘 이해하고 생성하는 모델을 만들 수 있습니다.

머신러닝 실무자는 정규화 기법을 적용함으로써 실제 애플리케이션에서 효과적으로 작동하는 보다 강력하고 안정적이며 일반화 가능한 AI 모델을 구축할 수 있습니다. 정규화와 함께 데이터 증강과 같은 기술을 더 탐구하면 모델 성능과 견고성을 더욱 향상시킬 수 있습니다.

모두 보기