Yolo 비전 선전
선전
지금 참여하기
용어집

모델 앙상블

모델 앙상블이 Ultralytics 같은 여러 아키텍처를 결합하여 정확도와 견고성을 향상시키는 방법을 알아보세요. 핵심 기술과 구현 팁을 배워보세요.

모델 앙상블은 기계 학습에서 여러 개별 모델의 예측을 결합하여 단일 모델이 단독으로 달성할 수 있는 것보다 더 정확하고 견고한 최종 출력을 생성하는 전략적 접근법입니다. 전문가 위원회가 단독 개인보다 더 나은 결정을 내리기 위해 논의하는 것과 마찬가지로, 모델 앙상블은 다양한 아키텍처의 강점을 활용하여 오류를 완화합니다. 이 기법은 복잡한 작업에서 성능을 향상시키고, 과적합 위험을 줄이며, 통계적 모델링에서 발견되는 내재적 편향-분산 상충관계를 처리하기 위해 널리 사용됩니다.

앙상블의 메커니즘

모델 앙상블의 핵심 원칙은 "다양성"입니다. 여러 모델(흔히 "기본 학습기" 또는 "약한 학습기"라 함)을 훈련 데이터의 서로 다른 부분집합에 대해 훈련시키거나 서로 다른 알고리즘을 사용하여 훈련함으로써, 앙상블은 한 모델이 저지른 오류가 다른 모델들에 의해 보정될 가능성을 보장합니다. 딥 러닝의 맥락에서는 이는 종종 추론 과정에서 여러 신경망을 병렬로 실행하는 것을 수반합니다.

이러한 예측을 결합하는 일반적인 방법에는 다음이 포함됩니다:

  • 투표: 이미지 분류에 사용되며, 대다수 모델이 선택한 클래스가 최종 예측이 됩니다.
  • 평균화: 회귀 작업에서 흔히 사용되며, 수치 출력을 평균화하여 잡음을 완화합니다.
  • 가중치 융합: 객체 탐지에서 가중치 박스 융합(WBF)과 같은 기법은 신뢰도 점수를 기반으로 서로 다른 탐지기의 경계 박스를 병합합니다.

실제 애플리케이션

모델 앙상블은 정확도 극대화가 최우선 과제이며 계산 자원이 여러 모델을 동시에 실행할 수 있는 중요한 환경에서 필수적이다.

  1. 의료 진단: 의료 영상 분석에서 진단을 놓치는 것은 심각한 결과를 초래할 수 있습니다. 방사선과 의사들은 종종 표준 컨볼루션 신경망(CNN)비전 트랜스포머(ViT)를 결합한 앙상블을 사용합니다. CNN은 국소적 조직 분석에 탁월한 반면, ViT는 전체적 맥락을 포착하여 단일 아키텍처보다 높은 민감도로 detect 수 있게 합니다.
  2. 자율주행: 자율주행 차량의 인식 시스템은 고장 안전성이 보장되어야 합니다. 엔지니어들은 종종 여러 탐지 모델을 조합하여 사용합니다. 예를 들어, YOLO26의 실시간 속도 감지 능력과 트랜스포머 기반의 정확도를 융합하는 방식이 대표적입니다. RT-DETR을 융합하는 방식이다. 이는 눈부심이나 그림자와 같은 특정 조명 조건에서 한 모델이 어려움을 겪더라도 보행자나 장애물이 탐지되도록 보장한다.

Python으로 앙상블 구현하기

복잡한 앙상블 전략은 Scikit-learn과 같은 라이브러리를 사용하여 구축할 수 있지만, 컴퓨터 비전을 위한 기본적인 추론 앙상블은 단순히 여러 모델을 로드하고 동일한 입력을 처리함으로써 만들 수 있습니다. 다음 예시는 서로 다른 두 모델을 로드하는 방법을 보여줍니다. Ultralytics YOLO 모델을 로드하여 동일한 이미지에 대한 예측을 생성하는 방법을 보여줍니다.

from ultralytics import YOLO

# Load two different model variants to create a diverse ensemble
model_a = YOLO("yolo26n.pt")  # Nano model (Speed focused)
model_b = YOLO("yolo26s.pt")  # Small model (Higher accuracy)

# Perform inference on an image with both models
# In production, results are typically merged programmatically
results_a = model_a("https://ultralytics.com/images/bus.jpg")
results_b = model_b("https://ultralytics.com/images/bus.jpg")

print(f"Model A detected {len(results_a[0].boxes)} objects.")
print(f"Model B detected {len(results_b[0].boxes)} objects.")

모델 앙상블 대 전문가 혼합

표준 모델 앙상블과 전문가 혼합(Mixture of Experts, MoE)을 구분하는 것이 유용합니다. 이 용어는 현대 대규모 언어 모델(Large Language Model, LLM) 연구에서 흔히 볼 수 있습니다.

  • 모델 앙상블: 일반적으로 컬렉션 내 모든 모델에 대해 각 입력값을 조회하고 결과를 집계합니다. 이는 평균 정밀도(mAP) 와 같은 지표를 극대화하지만 추론 지연 시간과 계산 비용을 크게 증가시킵니다. 품질에 대한 무차별 대입 방식입니다.
  • 전문가 혼합 모델: "게이팅 네트워크"를 활용하여 데이터를 현재 입력에 가장 적합한 소수의 특정 "전문가" 하위 모델로만 라우팅합니다. 이를 통해 토큰마다 모든 매개변수를 실행하는 계산적 비용 없이도 기초 모델의 대규모 확장성을 가능하게 합니다.

장점과 고려사항

모델 앙상블을 사용하는 주요 이점은 성능 향상입니다. 앙상블은 Kaggle 대회와 같은 데이터 과학 경연에서 리더보드를 자주 장악하는데, 이는 단일 모델이 놓치는 복잡한 패턴을 모델링할 수 있기 때문입니다. 그러나 이에 따른 비용이 따릅니다: 앙상블을 배포하려면 더 많은 메모리와 컴퓨팅 성능이 필요합니다.

이러한 자원 수요를 효율적으로 관리하려는 팀을 위해 Ultralytics 다양한 모델 아키텍처를 훈련, track 및 벤치마킹할 수 있는 도구를 제공합니다. 성능 지표를 손쉽게 비교함으로써 개발자는 앙상블 모델의 정확도 향상 효과가 에지 AI 시나리오에 배포하기 위해 필요한 추가 인프라 비용을 정당화하는지 판단할 수 있습니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기