전이 학습의 강력한 기능을 활용하여 시간을 절약하고, AI 성능을 높이고, 사전 학습된 모델을 사용하여 제한된 데이터로 새로운 작업을 처리할 수 있습니다.
전이 학습은 특정 작업을 위해 개발된 모델을 두 번째 관련 작업의 모델의 시작점으로 재사용하는 머신 러닝(ML) 기법입니다. 전이 학습은 상당한 데이터와 계산 리소스가 필요한 모델을 처음부터 새로 구축하는 대신 소스 작업에서 학습한 지식(특징, 패턴, 가중치)을 활용하여 대상 작업에 대한 학습을 개선합니다. 이 접근 방식은 대상 작업에 레이블이 지정된 데이터가 제한되어 있을 때 특히 유용하며, 학습 프로세스를 크게 가속화하고 대상 데이터 세트에서만 학습할 때보다 더 나은 성능을 이끌어냅니다.
전이 학습의 핵심 개념은 이미지 작업을 위한 ImageNet이나 자연어 처리(NLP)를 위한 대규모 텍스트 코퍼스와 같은 대규모의 일반 데이터 세트에서 훈련된 모델이 다른 많은 관련 작업에 유용한 일반적인 특징을 학습한다는 것입니다. 예를 들어, 컴퓨터 비전(CV)에서 컨볼루션 신경망(CNN) 의 초기 레이어는 다양한 이미지 인식 문제에 적용할 수 있는 기본적인 시각적 요소인 가장자리, 질감, 단순한 모양을 감지하는 방법을 학습할 수 있습니다.
전이 학습을 적용할 때는 일반적으로 사전 학습된 모델로 시작합니다. 소스 작업과 대상 작업 간의 유사성과 대상 데이터 세트의 크기에 따라 달라질 수 있습니다:
이전 학습은 다양한 영역에 걸쳐 널리 적용됩니다:
Ultralytics HUB와 같은 플랫폼은 사전 학습된 모델을 제공하여 전이 학습을 적용하는 프로세스를 간소화합니다. Ultralytics YOLOv8 및 YOLO11)과 사용자별 데이터 세트에 대한 간편한 사용자 지정 학습을 위한 도구를 제공합니다. 다음과 같은 프레임워크 PyTorch 및 TensorFlow 와 같은 프레임워크도 전이 학습 워크플로우 구현을 위한 광범위한 지원과 튜토리얼을 제공합니다. 더 깊은 이론적 이해를 위해서는 전이 학습에 대한 스탠포드 CS231n 개요나'심층 전이 학습에 대한 설문조사'와 같은 학술 조사 같은 리소스를 통해 귀중한 인사이트를 얻을 수 있습니다.