전이 학습의 강력한 기능을 활용하여 시간을 절약하고, AI 성능을 높이고, 사전 학습된 모델을 사용하여 제한된 데이터로 새로운 작업을 처리할 수 있습니다.
전이 학습은 한 작업에 대해 개발된 모델을 두 번째 관련 작업에 대한 모델의 시작점으로 재사용하는 머신 러닝(ML) 기법입니다. 전이 학습은 처음부터 모델을 구축하는 대신 소스 작업에서 학습한 지식(특징, 가중치)을 활용하여 대상 작업에 필요한 학습 시간, 데이터 요구 사항 및 계산 리소스를 크게 줄입니다. 이 접근 방식은 대상 작업에 레이블이 지정된 데이터가 제한되어 있을 때 특히 유용합니다.
이 프로세스는 일반적으로 이미지 작업을 위한 이미지넷이나 자연어 처리(NLP)를 위한 대규모 텍스트 코퍼스와 같은 대규모의 일반 데이터 세트에서 사전 학습된 모델로 시작됩니다. 이러한 사전 학습을 통해 모델(주로 컨볼루션 신경망(CNN) 또는 트랜스포머와 같은 딥러닝(DL) 모델)은 이미지의 가장자리, 질감, 패턴 또는 텍스트의 문법과 의미 등 일반적인 특징을 학습할 수 있습니다.
새로운 목표 작업에는 이 사전 학습된 모델이 적용됩니다. 일반적인 전략은 다음과 같습니다:
이전 학습을 사용하면 몇 가지 주요 이점이 있습니다:
이전 학습은 다양한 영역에 걸쳐 널리 적용됩니다:
Ultralytics HUB와 같은 플랫폼은 사전 학습된 모델을 제공하여 전이 학습을 적용하는 프로세스를 간소화합니다(YOLOv8, YOLOv11) 및 사용자별 데이터 세트에 대한 간편한 사용자 지정 학습을 위한 도구를 제공합니다. 다음과 같은 프레임워크 PyTorch 와 TensorFlow 와 같은 프레임워크도 이전 학습을 위한 광범위한 지원과 튜토리얼을 제공합니다. 더 자세히 알아보려면 스탠포드 CS231n 개요와 같은 리소스나"심층 전이 학습에 관한 설문조사"와 같은 학술 조사를 살펴보세요.