用語集

雨漏りするReLU

AIとMLのためのLeaky ReLU活性化のパワーを発見してください。瀕死のReLU問題を解決し、CV、NLP、GANなどのモデル性能を向上させます!

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

人工知能(AI)の分野、特にディープラーニング(DL)の分野では、活性化関数はニューラルネットワークの重要な構成要素である。活性化関数は非線形性を導入し、モデルがデータから複雑なパターンを学習することを可能にする。Leaky ReLU(Leaky Rectified Linear Unit)は、広く使われているReLU(Rectified Linear Unit)を強化するために設計された活性化関数である。その主な目的は、「瀕死のReLU」問題に対処することであり、それにより、特にコンピュータビジョンアプリケーションにおける深層学習モデルの学習の安定性と性能を向上させることである。

リークしたReLUを理解する

標準的なReLU関数は、入力が正であればそのまま出力し、そうでなければゼロを出力する。計算効率は良いが、負の入力に対するゼロ出力は、「死にゆくReLU」問題につながる。ニューロンが常に負の入力を受け、その出力がゼロになると、バックプロパゲー ション中にそのニューロンを流れる勾配もゼロになる。その結果、ニューロンの重みは更新されなくなり、事実上「死んで」しまい、学習プロセスに貢献しなくなる。この問題はモデルの学習を妨げる可能性があり、特に非常に深いネットワークでは勾配の消失問題を悪化させる可能性がある。

Leaky ReLUは、負の入力に対して小さなゼロでないスロープを導入することで、これに対処している。ゼロを出力する代わりに、入力に 比例した小さな値(例えば入力の0.01倍)を出力する。この小さな「リーク」によって、ニューロンが出力が負であっても、常にゼロでない勾配を持つことが保証される。これによって、重みが更新され続け、ニュー ロンが永久に不活性になるのを防ぐことができる。この小さな勾配は、しばしばαと表記され、通常は固定された小さな定数であるが、Parametric ReLU(PReLU)のようなバリエーションでは、この勾配をトレーニング中に学習することができる(PReLUについてもっと知る)。デッドニューロンを防ぐことで、Leaky ReLUはよりロバストな学習と、より早い収束につながる可能性がある。

AIとMLにおける関連性と応用

Leaky ReLUは、トレーニングの間中アクティブなニューロンを維持することが重要なシナリオにおいて、貴重なツールである。標準的なReLUと同様の計算効率により、大規模モデルに適している。主な応用例

リークしたReLUと他の活性化機能との比較

標準的なReLUと比較して、Leaky ReLUの主な利点は、死にゆくニューロンの問題を回避することです。ELU (Exponential Linear Unit)やSiLU (Sigmoid Linear Unit)のような他の活性化関数もこの問題に対処し、より滑らかな勾配などの利点を提供することもある。しかし、これらの選択肢はLeaky ReLUよりも計算コストが高くなる可能性があります(活性化関数の比較を参照)。最適な選択は、多くの場合、特定のニューラルネットワークアーキテクチャ、データセット、およびハイパーパラメータチューニングのようなプロセスを通じて得られた経験的結果に依存します。以下のようなフレームワーク PyTorchのようなフレームワークは、様々な活性化関数の簡単な実装を提供し、実験を容易にします。

すべて読む