용어집

활성화 기능

신경망에서 활성화 함수의 역할과 유형, AI 및 머신러닝의 실제 적용 사례에 대해 알아보세요.

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

활성화 함수는 신경망(NN)의 기본 구성 요소로, 신경망이 복잡한 패턴을 학습하고 정교한 예측을 할 수 있도록 하는 데 중요한 역할을 합니다. 생물학적 뉴런이 발화하는 방식에서 영감을 얻은 활성화 함수는 입력의 가중치 합계를 계산하고 편향을 추가하여 뉴런을 활성화할지 여부를 결정합니다. 활성화 함수의 주요 목적은 뉴런의 출력에 비선형성을 도입하는 것으로, 이는 딥러닝(DL) 모델이 단순한 선형 관계를 넘어 복잡한 작업을 처리하는 데 필수적입니다. 비선형 활성화 함수가 없으면 심층 신경망은 단일 계층 선형 모델처럼 작동하여 학습 기능이 심각하게 제한됩니다.

비선형성이 중요한 이유

이미지, 텍스트, 사운드와 같은 실제 데이터는 본질적으로 복잡하고 비선형적입니다. 선형 변환으로만 구성된 모델로는 이러한 복잡한 관계를 효과적으로 포착할 수 없습니다. 활성화 함수는 필요한 비선형성을 도입하여 신경망이 임의의 복잡한 함수에 근사치를 구할 수 있게 해줍니다. 이 기능은 최신 인공 지능(AI)의 초석으로, 컴퓨터 비전(CV)자연어 처리(NLP)와 같은 분야에서 획기적인 발전을 가능하게 합니다. 학습 과정에는 이러한 함수에 의해 도입된 속성에 의존하는 역전파경사 하강과 같은 방법을 통해 네트워크 가중치를 조정하는 것이 포함됩니다.

일반적인 활성화 기능 유형

다양한 활성화 기능이 존재하며, 각 활성화 기능은 각기 다른 시나리오에 적합한 고유한 특성을 가지고 있습니다. 몇 가지 일반적인 유형은 다음과 같습니다:

올바른 활성화 기능 선택

활성화 함수의 선택은 문제 유형(예: 분류, 회귀), 특정 레이어(숨김 대 출력), 네트워크 아키텍처, 정확도추론 속도와 같은 원하는 성능 특성과 같은 요인에 따라 달라집니다. ReLU와 그 변형(Leaky ReLU, SiLU)은 효율성과 소실 기울기를 완화하는 능력으로 인해 CNN의 숨겨진 레이어에 일반적으로 선택됩니다. 시그모이드와 탄은 순환 신경망(RNN)에 자주 사용되며, 소프트맥스는 다중 클래스 분류 출력에 표준으로 사용됩니다. 특정 모델과 데이터 세트에 대한 최적의 활성화 함수를 찾으려면 하이퍼파라미터 튜닝과 같은 실험과 기술이 필요한 경우가 많습니다. 다양한 모델 훈련 팁을 참고하세요.

실제 애플리케이션

활성화 기능은 다양한 AI 애플리케이션에서 매우 중요합니다:

  • 개체 감지: 다음과 같은 모델에서 YOLO11와 같은 모델에서는 이미지에서 특징(예: 가장자리, 텍스처, 모양)을 추출하기 위해 백본의 컨볼루션 레이어 내에서 SiLU 또는 ReLU와 같은 활성화 함수가 사용됩니다. 감지 헤드에서 활성화 함수는 클래스 확률을 예측하고 감지된 객체 주변의 경계 상자 좌표를 구체화하는 데 도움이 됩니다. 이 기술은 보행자나 다른 차량을 식별하는 자율주행 차량이나 감시를 위한 보안 시스템과 같은 분야에서 필수적인 기술입니다.
  • 음성 인식: 음성 언어를 텍스트로 변환하는 시스템에서 종종 RNN이나 트랜스포머를 사용하는 경우, 네트워크 계층 내에서 Tanh 또는 GELU와 같은 활성화 함수가 사용됩니다. 이러한 함수는 모델이 오디오 신호의 시간적 종속성과 패턴을 포착하여 정확한 전사를 가능하게 합니다. 이는 가상 비서 (예: Siri, Alexa) 및 받아쓰기 소프트웨어와 같은 애플리케이션을 구동합니다. 주요 연구 기관의 음성 인식에 대해 자세히 알아보세요.

관련 용어와의 비교

활성화 함수를 신경망의 다른 개념과 구별하는 것이 중요합니다:

  • 손실 함수: 손실 함수는 모델의 예측과 실제 목표 값("오차")의 차이를 정량화합니다. 손실 함수의 목표는 모델이 얼마나 잘 수행되고 있는지를 측정하여 학습 과정을 안내하는 것입니다. 활성화 함수는 포워드 패스 동안 뉴런의 출력을 결정하는 반면, 손실 함수는 패스 종료 시 전체 모델 출력을 평가하여 역전파 중 가중치 업데이트에 사용되는 오류를 계산합니다.
  • 최적화 알고리즘: 이러한 알고리즘(예: 아담 최적화, 확률적 경사 하강(SGD))은 계산된 손실에 따라 모델의 가중치를 업데이트하는 방법을 정의합니다. 이들은 손실 함수에서 파생된 기울기를 사용하여 매개변수를 조정하고 오류를 최소화합니다. 활성화 함수는 이러한 기울기 계산에 영향을 주지만 최적화 방법 자체는 아닙니다. 최적화 알고리즘 개요를 참조하세요.
  • 정규화 기법: 배치 정규화와 같은 방법은 레이어에 대한 입력을 정규화(평균과 단위 분산이 0이 되도록 스케일링)하여 학습 프로세스를 안정화하고 가속화하는 것을 목표로 합니다. 정규화는 활성화 함수가 변환된 레이어 입력에 적용되기 전에 수행되므로 네트워크 전체에서 일관된 데이터 분포를 유지하는 데 도움이 됩니다. 자세한 내용은 일괄 정규화 백서를 참조하세요.

활성화 함수를 이해하는 것은 다양한 영역에서 효과적인 머신러닝(ML) 모델을 설계, 학습 및 최적화하는 데 필수적입니다. 올바른 선택은 모델 성능과 훈련 역학에 큰 영향을 미칠 수 있습니다. AI 모델 구축, 학습 및 배포를 용이하게 해주는 Ultralytics HUB와 같은 도구를 사용하여 다양한 모델과 그 구성 요소를 탐색할 수 있습니다.

모두 보기