용어집

대조 학습

최소한의 레이블이 지정된 데이터로 강력한 데이터 표현을 위한 자가 지도 기법인 대조 학습의 강력한 성능을 알아보세요.

대조 학습은 비슷한 것과 다른 것을 구별하도록 모델을 훈련시키는 머신 러닝 기법입니다. 이 모델은 단일 데이터 포인트에서 레이블을 예측하는 학습 대신 한 쌍의 예제를 비교하여 학습합니다. 핵심 아이디어는 특징 공간에서 유사한(양수) 쌍의 표현을 서로 가깝게 끌어당기고 서로 다른(음수) 쌍의 표현을 멀리 밀어내도록 모델을 학습시키는 것입니다. 이 접근 방식은 레이블이 없는 대규모 데이터 세트에서 의미 있는 표현을 학습하는 데 매우 효과적이며, 광범위한 자기 지도 학습 범주 내에서 강력한 방법입니다.

어떻게 작동하나요?

대조 학습 과정은 양성 및 음성 샘플을 생성하는 과정을 중심으로 진행됩니다. '앵커'라고 하는 특정 데이터 포인트에 대해 모델은 다음과 같이 훈련됩니다:

  1. 포지티브 쌍: 양성 쌍은 앵커와 의미적으로 유사한 데이터 포인트로 구성됩니다. 컴퓨터 비전(CV)에서는 앵커 이미지에 강력한 데이터 증강 (예: 무작위 자르기, 회전 또는 색상 지터)을 적용하여 양성 샘플을 생성하는 경우가 많습니다. 앵커 이미지와 증강된 버전은 모두 동일한 소스 이미지에서 비롯된 것이므로 양성 쌍으로 간주됩니다.
  2. 음수 쌍: 네거티브 쌍은 앵커와 서로 다른 데이터 포인트로 구성됩니다. 일반적인 설정에서는 훈련 배치 내의 다른 모든 이미지가 네거티브 샘플로 처리됩니다.
  3. 훈련 목표: 컨볼루션 신경망(CNN)인 모델은 이러한 쌍을 처리하며, InfoNCE 또는 삼중 손실과 같은 대비 손실 함수를 사용하여 최적화됩니다. 이 손실 함수는 임베딩 공간에서 음수 쌍이 너무 가깝거나 양수 쌍이 너무 멀리 떨어져 있으면 모델에 불이익을 줍니다. SimCLRMoCo와 같은 획기적인 연구 논문은 이러한 기술을 크게 발전시켰습니다.

실제 애플리케이션

대조 학습은 사전 학습 모델을 통해 강력한 특징 표현을 학습한 다음 특정 작업에 맞게 미세 조정할 수 있습니다.

  • 시각적 검색 및 이미지 검색: 이커머스에서는 사용자가 업로드한 이미지와 시각적으로 유사한 제품을 찾고자 할 수 있습니다. 대조 학습으로 사전 훈련된 모델은 이미지를 유사한 항목이 함께 클러스터링된 벡터 공간에 매핑할 수 있습니다. 이를 통해 효율적인 시맨틱 검색 및 추천 시스템을 구현할 수 있으며, 이는 리테일 분야의 AI 고객 경험을 개선하는 데 매우 중요한 요소입니다.
  • 다운스트림 작업을 위한 사전 학습: Ultralytics YOLO11과 같은 모델은 대조 방법을 사용해 라벨이 없는 대규모 데이터 세트에 대한 사전 학습을 통해 이점을 얻을 수 있습니다. 이를 통해 모델은 개체 감지 또는 인스턴스 세분화와 같은 작업을 위해 더 작은 레이블이 지정된 데이터 세트에서 미세 조정되기 전에 강력한 시각적 특징을 학습할 수 있습니다. 이 접근 방식은 특히 레이블이 지정된 데이터가 부족할 때 더 나은 성능과 빠른 수렴으로 이어지는 경우가 많으며, 이를 소수 샷 학습(few-shot learning)이라고 합니다.

대조 학습과 다른 패러다임 비교

대조 학습과 관련 패러다임을 구분하는 것이 도움이 됩니다:

  • 지도 학습: 물체 감지 작업을 위해 경계 상자가 있는 이미지와 같이 세심하게 라벨이 지정된 데이터에 전적으로 의존합니다. 반면 대조 학습은 데이터 자체에서 자체 감독 신호를 생성하므로 수동 데이터 라벨링의 필요성이 크게 줄어듭니다.
  • 비지도 학습: 라벨이 없는 데이터에서 숨겨진 패턴을 찾는 것을 목표로 하는 광범위한 범주입니다. 대조 학습은 기존의 비지도 방법(예: K-평균 클러스터링)과 같이 레이블이 없는 데이터를 사용하지만, 학습 과정을 안내하기 위해 지도와 유사한 목표(쌍을 비교하는 구실 작업)를 만든다는 점에서 구별됩니다.
  • 자기 주도 학습(SSL): 대조 학습은 대표적인 SSL 유형입니다. SSL은 데이터 자체에서 감독이 생성되는 패러다임입니다. 대조 학습은 이를 달성하는 한 가지 방법이지만 이미지의 가려진 부분을 예측하는 방법과 같은 다른 비대조 SSL 방법도 존재합니다.

혜택과 과제

혜택:

  • 라벨 의존성 감소: 라벨이 지정되지 않은 방대한 양의 데이터를 활용하여 많은 비용과 시간이 소요되는 데이터 주석의 필요성을 줄입니다.
  • 강력한 표현: 순수 감독 방식에 비해 성가신 변형에 더 변하지 않는 특징을 학습하는 경우가 많습니다.
  • 효과적인 사전 교육: 특정 다운스트림 작업에 대한 미세 조정을 위한 훌륭한 출발점을 제공하며, 특히 레이블이 지정된 데이터가 제한적인 경우 더 나은 성능을 이끌어내는 경우가 많습니다. 사용자 지정 모델을 학습할 때 사전 학습된 모델이 어떻게 사용되는지 살펴볼 수 있습니다.

도전 과제:

  • 음성 샘플 선택: 성능은 음성 샘플의 수와 품질에 민감할 수 있습니다. 유익한 음성 샘플을 선택하는 것은 매우 중요하지만 쉽지 않습니다.
  • 증강 전략: 데이터 증강 기술의 선택은 모델이 학습하는 불변성에 큰 영향을 미칩니다.
  • 계산 비용: 효과적인 학습을 위해서는 종종 큰 배치 크기와 상당한 컴퓨팅 리소스(GPU)가 필요하지만, 이를 완화하기 위한 연구가 진행 중입니다. 이러한 모델을 쉽게 관리하고 훈련할 수 있는 플랫폼은 Ultralytics HUB와 같은 플랫폼입니다. PyTorch(공식 사이트)TensorFlow(공식 사이트)와 같은 프레임워크는 대조 학습 방법을 구현하기 위한 도구를 제공합니다.

울트라 애널리틱스 커뮤니티 가입

AI의 미래와 함께하세요. 글로벌 혁신가들과 연결, 협업, 성장하기

지금 가입하기
링크가 클립보드에 복사됨