적은 데이터로 높은 정확도의 AI를 훈련시키기 위한 전이 학습을 탐구하세요. 컴퓨터 비전 프로젝트를 가속화하기 위해 Ultralytics 사전 훈련된 가중치를 활용하는 방법을 알아보세요.
전이 학습은 기계 학습(ML) 에서 강력한 기법으로, 특정 작업을 위해 개발된 모델을 두 번째 관련 작업의 모델 시작점으로 재사용하는 방식입니다. 방대한 데이터셋과 상당한 계산 능력이 필요한 신경망을 처음부터 훈련하는 대신, 개발자는 AI가 이미 습득한 지식을 활용합니다. 이 접근법은 인간의 학습 방식을 모방합니다. 예를 들어 피아노 연주법을 알고 있으면 오르간을 배우는 것이 훨씬 쉬워지는데, 이는 음악 이론에 대한 기초적인 이해와 손가락의 민첩성이 이전되기 때문입니다. 딥 러닝의 맥락에서 이는 모델이 훨씬 적은 데이터와 시간으로 새로운 문제에 대해 높은 정확도를 달성할 수 있음을 의미합니다.
전이 학습의 효과는 특징 추출의 계층적 특성에 있다. 딥 러닝 모델, 특히 컴퓨터 비전에 사용되는 모델은 계층별로 패턴을 인식하도록 학습한다. 백본의 초기 계층은 가장자리, 곡선, 질감과 같은 detect 보편적인 특징을 detect . 이러한 저수준 특징은 거의 모든 시각적 작업에 적용 가능하다.
이 과정은 일반적으로 두 가지 주요 단계를 포함합니다:
전이 학습은 빅테크 기업 수준의 자원이 없어도 전문적인 솔루션을 구축할 수 있게 함으로써 인공지능을 대중화시켰다.
전이 학습을 밀접하게 관련된 용어들과 구분하는 것이 도움이 됩니다:
다음 사항 Python 이 스니펫은 [특정 라이브러리]를 사용한 전이 학습을 보여줍니다.
ultralytics 도서관. 우리는 YOLO26 모델은
COCO 도출된 사전 훈련된 가중치를 포함합니다. 새로운 데이터셋으로 훈련을 시작할 때,
모델은 사전 학습된 특징들을 자동으로 새로운 작업으로 이전합니다.
from ultralytics import YOLO
# Load a pre-trained YOLO26 model (transferring weights from COCO)
model = YOLO("yolo26n.pt")
# Train the model on a new, smaller dataset to adapt its knowledge
# This leverages the pre-learned backbone for faster convergence
results = model.train(data="coco8.yaml", epochs=5)
데이터셋 관리 및 클라우드 환경에서의 훈련 실행을 위해 Ultralytics 같은 도구는 프로세스를 간소화하여 팀이 데이터 주석 작업과 전이 학습 모델 배포를 효율적으로 협업할 수 있도록 합니다.
학문적 이론을 더 깊이 탐구하려면 스탠퍼드 CS231n 강의 노트가 훌륭한 개요를 제공하며, PyTorch 학습튜토리얼은 구현을 위한 광범위한 기술적 세부 사항을 제공합니다.