用語集

タン(双曲線タンジェント)

ゼロ中心で汎用性が高く、-1から1までの出力を必要とするAIタスクに最適なTanh活性化関数をご覧ください。さらに詳しく

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

Tanh(ハイパーボリックタンジェント)関数は、機械学習やディープラーニングモデルで広く使われている活性化関数である。Tanh関数は入力値を-1から1までの範囲にマッピングするため、出力が負の値と正の値の両方を表す必要があるタスクに特に有用である。Tanhは数学的にはシグモイド関数に似ていますが、より広い出力範囲を提供するため、特定のタイプのニューラルネットワークに効果的です。

タンの特性

Tanhは原点を中心に対称なS字型(シグモイド)関数である。主な性質は以下の通り:

  • 出力範囲:値は-1から1の間で制約される。
  • ゼロ中心シグモイド関数とは異なり、Tanhの出力はゼロ中心であるため、勾配ベースの最適化アルゴリズムが収束しやすい。
  • 勾配の挙動勾配は入力がゼロに近いほど強くなるが、入力が極端な値に向かうにつれて弱くなる。この問題については、「消失勾配」の用語集を参照してください。

AIとMLの応用

Tanhは、負の値を考慮する必要がある場面でよく使用される。以下はその主な応用例である:

1.リカレントニューラルネットワーク(RNN)

Tanhは、時系列や自然言語などのシーケンシャルなデータを処理するリカレントニューラルネットワーク(RNN)で頻繁に使用される。負から正の値の範囲を提供できるため、時間の経過に伴うデータポイントの関係を捉えるのに適している。

2.バイナリ分類

バイナリ結果を予測するモデルの場合、Tanhは入力データを下流の意思決定タスクを容易にする範囲に変換するために隠れ層で使用することができる。例えば、Tanhはソフトマックス活性化関数を持つ最終層の前に入力特徴を処理するかもしれない。

3.画像処理

画像セグメンテーションのようなコンピュータビジョンのタスクでは、Tanhは特徴抽出を強化する範囲にピクセル強度を正規化することができる。これは、畳み込みニューラルネットワーク(CNN)のようなモデルと組み合わせた場合に特に有用である。

実例

例1:センチメント分析

テキスト感情分析では、TanhはRNNまたはLSTM(Long Short-Term Memory networks)で使用され、肯定的な感情と否定的な感情の両方を捉えることで、感情の極性をモデル化する。この関数のゼロ中心の性質は、対立する感情を効果的に区別するのに役立つ。

例2:自律走行車

自律走行システムの文脈では、Tanhはセンサーデータを処理するニューラルネットワーク層で利用することができる。例えば、LiDAR信号のようなセンサーの測定値を正規化し、基準点からの正負両方の偏差を考慮することができる。

タン対シグモイドとReLU

TanhはSigmoid関数と類似しているが、Sigmoidの範囲(0~1)に比べてより広い範囲(-1~1)を提供する。このため、Tanhはゼロ中心の出力を必要とするタスクにより適している。しかし、ディープネットワークでは、その単純さと消失勾配の問題がないことから、整流線形ユニット(ReLU)が好まれることが多い。

主な違い

  • タンとシグモイド:Tanhはゼロ中心だが、Sigmoidはそうではない。これは、バランスのとれた勾配が必要なネットワークにおいて、Tanhをより効果的にすることができる。
  • TanhとReLUの比較:ReLUは計算効率が高く、勾配の消滅を避けることができるが、Tanhとは異なり負の値には対応しない。

課題と限界

Tanhを使用する主な課題の1つは、関数が極端な入力値で飽和する場合に起こりうる勾配の消失問題である。これは特にディープネットワークにおいて問題となり、勾配に基づく最適化が効果的でなくなる。これに対処するために、ReLUやLeaky ReLUのような代替活性化関数を採用することができる。

関連概念

  • 活性化関数の概要:その他の活性化関数とニューラルネットワークにおけるその役割について学びます。
  • 勾配降下:最適化アルゴリズムがTanhのような活性化関数とどのように相互作用するかを理解する。
  • ディープラーニングディープラーニングの広範な分野と、Tanhが様々なアーキテクチャにどのように適合するかを探る。
  • ハイパーパラメータのチューニング:効果的なパラメータチューニングにより、Tanhを使用してニューラルネットワークを最適化する方法をご覧ください。

Tanhは、多くの機械学習アプリケーション、特に負と正の両方の範囲を含む出力を必要とするアプリケーションにおいて、汎用的で効果的な活性化関数であり続けている。新しい活性化関数はその限界のいくつかに対処しているが、初期のディープ・ラーニング・アーキテクチャの進歩におけるその役割は控えめにはできない。Tanhのような活性化関数を実験する簡単で実用的な方法については、Ultralytics HUBを探求し、シームレスにモデルを訓練して展開する。

すべて読む