그라디언트 데센트가 어떻게 Ultralytics YOLO 과 같은 AI 모델을 최적화하여 의료 서비스부터 자율 주행 자동차에 이르기까지 다양한 작업에서 정확한 예측을 가능하게 하는지 알아보세요.
그라디언트 하강은 머신러닝(ML) 과 인공지능(AI)에서 널리 사용되는 기본적인 최적화 알고리즘입니다. 다음과 같은 복잡한 딥 러닝 아키텍처를 비롯한 많은 모델을 훈련하는 기본 방법으로 사용됩니다. Ultralytics YOLO. 경사 하강의 목표는 모델의 내부 매개변수( 모델 가중치 및 편향이라고도 함)를 반복적으로 조정하여 모델의 예측과 실제 목표 값 사이의 차이를 측정하는 손실 함수를 최소화하는 것입니다. 눈을 가린 채 계곡에서 가장 낮은 지점을 찾으려고 한다고 상상해 보세요. 경사 하강은 현재 위치의 경사(기울기)를 평가하고 가장 가파른 아래 방향으로 작은 발걸음을 내딛는 방식으로 사용자를 안내합니다. 이러한 반복적인 과정을 통해 모델은 데이터를 학습하고 예측 정확도를 향상시킬 수 있습니다.
그라디언트 하강은 많은 최신 AI 애플리케이션의 근간을 이루는 신경망(NN) 과 같은 정교한 모델을 훈련하는 데 특히 중요합니다. 객체 감지, 이미지 분류, 자연어 처리(NLP)에 사용되는 모델을 포함한 이러한 모델에는 최적화가 필요한 수백만 개 또는 수십억 개의 매개변수가 있는 경우가 많습니다. 그라디언트 디센트와 그 변형은 복잡한 손실 환경 (가능한 모든 매개변수 조합에 대한 손실 값을 나타내는 고차원 표면)을 탐색하고 좋은 성능을 내는 매개변수 값을 찾는 계산적으로 실현 가능한 방법을 제공합니다. 경사 하강을 통한 효과적인 최적화 없이는 이러한 대규모 모델을 높은 정확도 수준으로 훈련하는 것은 비현실적입니다. 다음과 같은 주요 ML 프레임워크 PyTorch 와 TensorFlow 과 같은 주요 ML 프레임워크는 경사 하강의 다양한 구현과 역전파 같은 관련 알고리즘에 크게 의존하여 필요한 경사도를 계산합니다. 이 프로세스를 최적화하는 데 대한 인사이트를 얻으려면 모델 트레이닝 팁을 살펴보세요.
경사 하강의 핵심 아이디어는 모델 파라미터에 대한 손실 함수의 경사(가장 가파른 상승 방향)를 계산한 다음 반대 방향(내리막길)으로 한 걸음씩 나아가는 것입니다. 이 단계의 크기는 모델이 학습하는 속도를 결정하는 중요한 하이퍼파라미터인 학습률에 의해 제어됩니다. 학습 속도가 너무 작으면 수렴 속도가 느려질 수 있고, 너무 크면 최적화 프로세스가 최소값을 초과하거나 심지어 갈라질 수 있습니다. 그라데이션 하강에는 여러 가지 변형이 존재하며, 주로 각 단계에서 그라데이션을 계산하는 데 사용되는 데이터의 양에 차이가 있습니다:
그라데이션 하강은 특정 유형의 최적화 알고리즘으로, 그라데이션을 사용하여 모델 파라미터를 조정하여 손실 함수를 반복적으로 최소화하는 데 중점을 둡니다. 이는 모델 학습의 다른 중요한 개념과는 다릅니다:
그라데이션 하강은 수많은 실제 AI 애플리케이션의 모델 학습을 지원하는 엔진으로, 지도 학습 시나리오 등에서 모델이 방대한 양의 데이터를 학습할 수 있도록 지원합니다: