레스넷이 어떻게 소실 그라디언트를 해결하여 딥 러닝을 혁신하고 이미지 분석, 자연어 처리 등을 위한 초심도 네트워크를 구현하는지 알아보세요.
일반적으로 ResNet으로 알려진 잔여 네트워크는 Microsoft Research의 Kaiming He와 동료들이 개발한 획기적인 컨볼루션 신경망(CNN) 아키텍처를 나타냅니다. 2015년 논문'이미지 인식을 위한 심층 잔여 학습'에서 소개된 ResNet은 딥 러닝(DL)의 주요 과제인 성능 저하 문제를 해결했습니다. 이 문제는 매우 심층적인 네트워크에 더 많은 레이어를 추가하면 더 심층적인 모델이 더 나은 성능을 낼 것이라는 예상과 달리 학습 오류가 높아질 때 발생합니다. ResNet의 혁신을 통해 이전에는 불가능했던 훨씬 더 깊은 네트워크를 성공적으로 훈련할 수 있었으며, 다양한 컴퓨터 비전(CV) 작업에서 최첨단 기술을 크게 발전시켰습니다.
ResNet의 핵심 아이디어는 "연결 건너뛰기" 또는 "바로 가기 연결"의 도입입니다. 기존의 딥 네트워크에서는 각 레이어가 순차적으로 다음 레이어로 연결됩니다. ResNet은 레이어 블록의 입력이 해당 블록의 출력에 추가될 수 있도록 함으로써 이를 수정합니다. 이렇게 하면 레이어가 전체 기본 매핑을 직접 학습하는 대신 잔여 매핑(입력과 원하는 출력 사이의 차이)을 학습하는 '잔여 블록'이 생성됩니다. 최적의 함수가 아이덴티티 매핑(출력이 입력과 같아야 하는)에 더 가까운 경우, 네트워크가 비선형 레이어를 통해 아이덴티티 매핑 자체를 학습하는 것보다 (쌓인 레이어의 가중치를 0으로 유도하여) 잔차를 0으로 만드는 방법을 학습하는 것이 더 쉬워집니다.
이러한 건너뛰기 연결은 역전파 중에 그라데이션 흐름을 촉진하여 매우 깊은 네트워크를 괴롭히는 소실 그라데이션 문제를 완화합니다. 이를 통해 수백, 수천 개의 레이어로 구성된 네트워크를 구축하고 효과적으로 훈련할 수 있어 ImageNet과 같은 까다로운 벤치마크 데이터 세트에서 놀라운 정확도 향상을 달성할 수 있습니다.
ResNet 아키텍처는 이미지 분류를 넘어 다양한 컴퓨터 비전 작업의 표준 백본으로 빠르게 자리 잡았습니다:
이미지에서 강력한 기능을 추출할 수 있는 이 아키텍처는 매우 다재다능하고 널리 채택된 아키텍처입니다.
ResNet 아키텍처는 다음과 같은 주요 딥 러닝 프레임워크에서 쉽게 사용할 수 있습니다. PyTorchPyTorch 공식 사이트) 및 TensorFlowTensorFlow 공식 사이트). 이미지넷에서 훈련된 사전 훈련된 모델은 종종 토치비전과 같은 라이브러리를 통해 액세스할 수 있어 효과적인 전이 학습을 가능하게 합니다. Ultralytics HUB와 같은 플랫폼을 사용하면 사용자 지정 모델을 훈련하고 배포하기 위해 ResNet 기반 아키텍처를 비롯한 다양한 아키텍처를 활용할 수 있습니다Ultralytics HUB 설명서). 더 자세한 교육 리소스는 스탠포드 CS231n의 CNN 또는 DeepLearning.AI에서 제공하는 것과 같은 과정을 통해 찾을 수 있습니다.