탄(쌍곡탄젠트) 함수는 머신러닝과 딥러닝 모델에서 널리 사용되는 활성화 함수입니다. 입력 값을 -1에서 1 사이의 범위로 매핑하므로 출력값이 음수와 양수를 모두 나타내야 하는 작업에 특히 유용합니다. 탄 함수는 수학적으로 시그모이드 함수와 유사하지만 더 넓은 출력 범위를 제공하므로 특정 유형의 신경망에 효과적입니다.
탄은 원점을 중심으로 대칭인 S자형(시그모이드) 함수입니다. 주요 속성은 다음과 같습니다:
탄은 음수 값을 설명해야 하는 시나리오에서 자주 사용됩니다. 다음은 주목할 만한 몇 가지 활용 사례입니다:
탄은 시계열이나 자연어와 같은 순차적 데이터를 처리하기 위해 순환 신경망(RNN) 에서 자주 사용됩니다. 음수부터 양수까지 다양한 값을 제공할 수 있기 때문에 시간에 따른 데이터 포인트의 관계를 파악하는 데 적합합니다.
이진 결과를 예측하는 모델의 경우 숨겨진 레이어에서 Tanh를 사용하여 입력 데이터를 다운스트림 의사 결정 작업을 용이하게 하는 범위로 변환할 수 있습니다. 예를 들어, Tanh는 Softmax 활성화 함수를 사용하여 최종 레이어 전에 입력 기능을 처리할 수 있습니다.
이미지 분할과 같은 컴퓨터 비전 작업에서 Tanh은 픽셀 강도를 특징 추출을 향상시키는 범위로 정규화할 수 있습니다. 이는 컨볼루션 신경망(CNN)과 같은 모델과 함께 사용할 때 특히 유용합니다.
텍스트 감정 분석에서 Tanh는 RNN 또는 LSTM(장단기 기억 네트워크) 에서 긍정과 부정 감정을 모두 포착하여 감정의 극성을 모델링하는 데 사용됩니다. 이 함수의 영점 중심적 특성은 반대되는 감정을 효과적으로 구분하는 데 도움이 됩니다.
자율주행 차량 시스템에서 탄은 센서 데이터를 처리하는 신경망 레이어에서 활용될 수 있습니다. 예를 들어, 기준점으로부터의 양수 편차와 음수 편차를 모두 설명하기 위해 LiDAR 신호와 같은 센서 판독값을 정규화할 수 있습니다.
탄은 시그모이드 함수와 유사하지만, 시그모이드(0~1)에 비해 더 넓은 범위(-1~1)를 제공합니다. 따라서 탄은 영점 중심의 출력이 필요한 작업에 더 적합합니다. 그러나 딥 네트워크의 경우, 단순성과 소실 그라데이션 문제가 없기 때문에 정류 선형 단위(ReLU) 가 선호되는 경우가 많습니다.
탄을 사용할 때 가장 큰 어려움 중 하나는 함수가 극단적인 입력 값에서 포화될 때 발생할 수 있는 소실 그라데이션 문제입니다. 이는 그라데이션 기반 최적화의 효과가 떨어지는 딥 네트워크에서 특히 문제가 됩니다. 이 문제를 해결하기 위해 ReLU 또는 Leaky ReLU와 같은 대체 활성화 함수를 사용할 수 있습니다.
탄은 많은 머신 러닝 애플리케이션, 특히 음수와 양수 범위를 모두 포함하는 출력이 필요한 애플리케이션에서 여전히 다재다능하고 효과적인 활성화 함수입니다. 최신 활성화 함수가 일부 한계를 해결하고 있지만, 초기 딥 러닝 아키텍처를 발전시키는 데 있어 탄의 역할은 과소평가할 수 없습니다. 탄과 같은 활성화 함수를 쉽고 실용적으로 실험할 수 있는 방법을 알아보려면 Ultralytics HUB에서 모델을 원활하게 훈련하고 배포하세요.