SiLU(Swish)活性化関数が、物体検出やNLPなどのAIタスクにおいてディープラーニングのパフォーマンスをどのように高めるかをご覧ください。
シグモイド線形ユニット(SiLU)は、スウィッシュ関数としても知られ、ニューラルネットワーク(NN)で使用される活性化関数である。活性化関数は、ネットワークに非線形性を導入し、データから複雑なパターンを学習できるようにする重要なコンポーネントである。SiLUはGoogle Brainの研究者によって開発され、様々な深層学習タスクにおける有効性から人気を博しており、より深いモデルではReLUのような旧来の関数を上回ることが多い。
SiLUの意義は、モデル性能とトレーニングダイナミクスの改善につながるそのユニークな特性にある。広く使われているReLU関数とは異なり、SiLUは滑らかで非単調です。これは、入力に対して出力が厳密に増加しないことを意味し、より複雑な関数をモデル化することを可能にします。この滑らかさは勾配ベースの最適化に役立ち、トレーニング中の急激な変化を防ぐ。オリジナルのSwish論文を含む研究によると、ReLUをSiLUに置き換えることで、特に非常に深いネットワークにおいて、ImageNetのような困難なデータセットでの分類精度が向上することが示唆されている。SiLUのセルフゲーティング・メカニズムは、情報の流れを調整するのに役立ち、勾配消失問題のような問題を軽減する可能性がある。
SiLUは、他の一般的な活性化関数と比較して、異なるプロファイルを提供する:
SiLUは汎用性が高く、ディープラーニングモデルが使用される様々な領域で応用に成功している:
SiLUは、次のような主要なディープラーニングフレームワークですぐに利用可能です。 PyTorch (として torch.nn.SiLU
文書化されている これそして TensorFlow (として tf.keras.activations.swish
文書化されている これ).プラットフォーム Ultralytics HUB サポート トレーニング そして 展開 このような高度なコンポーネントを利用したモデルの