용어집

탄(쌍곡선 탄젠트)

신경망에서 탄 활성화 함수의 힘을 알아보세요. 이 함수를 통해 AI가 제로 중심의 효율성으로 복잡한 데이터를 모델링하는 방법을 알아보세요!

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

쌍곡선 탄젠트는 흔히 탄이라고 줄여서 부르는데, 신경망에서 일반적으로 사용되는 활성화 함수의 일종입니다. 수학적으로는 시그모이드 함수와 유사하지만 출력 범위가 다르므로 다양한 유형의 머신 러닝 작업에 적합합니다. 탄 활성화 함수는 신경망이 데이터의 복잡한 패턴을 학습할 수 있도록 하는 데 중요한 역할을 합니다.

탄에 대한 이해

탄 함수는 수학적으로 -1에서 1 사이의 값을 출력하도록 정의된 S자형 곡선입니다. 이는 0에서 1 사이의 값을 출력하는 시그모이드 함수와 대조됩니다. 탄 함수의 영 중심 특성, 즉 출력이 0을 중심으로 대칭을 이룬다는 점이 주요 특징입니다. 이 특성은 특정 신경망 아키텍처에서 데이터의 중심을 잡는 데 도움이 되어 후속 계층의 학습을 더 효율적으로 만들 수 있기 때문에 유용할 수 있습니다.

신경망의 맥락에서 탄과 같은 활성화 함수는 뉴런의 입력 가중치 합계에 적용됩니다. 이를 통해 네트워크에 비선형성을 도입하여 선형 모델로는 불가능한 데이터의 복잡한 관계를 모델링할 수 있습니다. 비선형 활성화 함수가 없으면 심층 신경망은 본질적으로 단층 퍼셉트론처럼 작동하여 학습 기능이 제한됩니다. 용어집에서 ReLU(정류 선형 단위)누수 ReLU와 같은 다른 일반적인 활성화 함수를 살펴보고 그 차이점과 사용 사례를 이해할 수 있습니다.

AI/ML의 관련성 및 응용 분야

탄은 뉴런의 출력이 양수 및 음수여야 하는 상황에서 특히 유용합니다. 몇 가지 주요 응용 분야는 다음과 같습니다:

  • 순환 신경망(RNN): Tanh는 RNN, 특히 장단기 메모리 네트워크(LSTM)게이트 순환 유닛(GRU)에서 자주 사용됩니다. 텍스트나 시계열과 같은 순차적 데이터를 처리하도록 설계된 이러한 아키텍처에서 Tanh는 네트워크를 통해 정보의 흐름을 조절하는 데 도움을 줍니다. 예를 들어, 텍스트 생성이나 기계 번역과 같은 NLP 작업에서 Tanh는 RNN의 숨겨진 레이어에서 찾을 수 있습니다.
  • 생성 모델: 원하는 출력이 양수와 음수 값에 걸쳐 있을 수 있는 일부 유형의 생성 모델에서는 출력 레이어 또는 생성 네트워크 자체 내에서 Tanh가 적합한 선택이 될 수 있습니다. 예를 들어, 이미지 또는 오디오 생성에 사용되는 특정 유형의 확산 모델에서는 네트워크 블록 내에서 Tanh를 사용할 수 있습니다.

ReLU와 그 변형은 딥 네트워크 훈련의 단순성과 효율성으로 인해 많은 딥 러닝 애플리케이션에서 인기를 얻고 있지만, 특히 영점 중심의 출력이 유리한 경우에는 여전히 가치 있는 옵션입니다. 다양한 활성화 함수의 속성을 이해하는 것은 다양한 AIML 작업을 위한 효과적인 신경망 아키텍처를 설계하는 데 매우 중요합니다.

모두 보기