ReLU(Rectified Linear Unit)は、ディープラーニングで最もよく使われる活性化関数の1つである。そのシンプルさと効率性により、畳み込みニューラルネットワーク(CNN)やフィードフォワードネットワークを含むニューラルネットワークアーキテクチャの標準的な選択肢となっている。ニューラルネットワークに非線形性を導入することで、ReLUはモデルがデータ内の複雑なパターンと関係を学習するのを助ける。
ReLUは、入力が正であればそのまま出力し、そうでなければゼロを出力することで入力を変換する。この単純な計算により、ReLUはディープネットワークの学習を妨げる可能性のある消失勾配問題などの課題に対処することができる。SigmoidやTanhのような以前の活性化関数とは異なり、ReLUは正の入力に対して飽和しないため、学習中の収束が速くなる。
アクティベーション・ファンクションについて詳しくは、アクティベーション・ファンクション用語集のページをご覧ください。
ReLUは、さまざまなアプリケーションでニューラルネットワークの性能を向上させる上で重要な役割を果たしている:
ReLUは画像認識タスクに使われるCNNに不可欠である。これらのネットワークは、多層の畳み込みと活性化を通してピクセルデータを処理し、ReLUによってモデルが複雑なパターンを学習できるようになる。例えば
コンピュータビジョンほど支配的ではないが、ReLUは自然言語処理モデルの埋め込み層やフィードフォワードコンポーネントでよく使われる。例えば、テキスト分類や感情分析のようなタスクでは、ReLUは効率的な特徴抽出を可能にする。
Ultralytics YOLO のような最先端の物体検出モデルにおいて、ReLUは基礎的な要素である。これらのモデルは、画像データを処理し、バウンディングボックスとクラススコアを予測するためにReLUに依存しています。ReLUの詳細 Ultralytics YOLOと物体検出におけるその応用についてご覧ください。
効果的ではあるが、ReLUにはいくつかの限界がある:
このような問題に対処するために、Leaky ReLUやParametric ReLU(PReLU)のようなバリエーションが開発されてきた。例えばLeaky ReLUは、負の入力にゼロではなく小さな傾きを割り当てることで、ニューロンが不活性になるのを防ぐ。詳しくは、Leaky ReLUの用語解説ページをご覧ください。
医療診断ReLUは医療画像を解析するニューラルネットワークに広く使われている。例えば、ReLUをアクティブ化したCNNは、放射線画像の癌病変を識別し、診断精度と速度を向上させることができます。医療画像解析について詳しく知る
小売業と在庫管理ReLUを搭載した物体検知システムは、小売業で在庫追跡の自動化に使用されています。これらのシステムは、リアルタイムで商品の種類を認識し、在庫をカウントすることができるため、業務効率が向上します。小売業におけるAIアプリケーションをご覧ください。
ReLUはその単純さと有効性から際立っているが、使用されている活性化関数はそれだけではない:
ReLUと他の機能との比較については、アクティベーション機能の用語解説ページをご覧ください。
ReLUはニューラルネットワークのトレーニングに革命をもたらし、より深いアーキテクチャーとより正確なモデルを業界全体で実現しました。AIが進化し続ける中、ReLUとその亜種は多くの最先端アプリケーションの基礎であり続けています。これらの強力なテクニックをUltralytics HUB のようなツールと統合して、シームレスなモデルトレーニングと展開を実現する方法をご覧ください。