Yapay zeka ve makine öğrenimi için Sızdıran ReLU aktivasyonunun gücünü keşfedin. Ölmekte olan ReLU sorununu çözün ve CV, NLP, GAN'lar ve daha fazlasında model performansını artırın!
Leaky Rectified Linear Unit veya Leaky ReLU, sinir ağlarında (NN ) kullanılan bir aktivasyon fonksiyonudur ve standart Rectified Linear Unit (ReLU) fonksiyonu üzerinde doğrudan bir geliştirmedir. Nöronların eğitim sırasında inaktif hale gelebildiği ve öğrenmeyi durdurabildiği "ölen ReLU" sorununu ele almak için tasarlanmıştır. Negatif giriş değerleri için küçük, sıfır olmayan bir eğim ekleyerek, Sızdıran ReLU nöronların her zaman bir gradyana sahip olmasını sağlar, bu da derin öğrenme (DL) modellerinde daha istikrarlı ve tutarlı eğitime olanak tanır. Bu basit modifikasyonun çeşitli mimarilerde etkili olduğu kanıtlanmış, model performansını ve eğitim dinamiklerini iyileştirmeye yardımcı olmuştur.
Leaky ReLU'nun arkasındaki temel motivasyon, ölen nöron problemini çözmektir. Standart bir ReLU fonksiyonunda, bir nörona herhangi bir negatif girdi sıfır çıktı ile sonuçlanır. Bir nöron sürekli olarak negatif girdi alırsa, her zaman sıfır çıktı verecektir. Sonuç olarak, geriye yayılma sırasında bu nörondan akan gradyan da sıfır olacaktır. Bu, nöronun ağırlıklarının artık güncellenmediği ve öğrenme sürecine katılmayı fiilen bıraktığı, yani "öldüğü" anlamına gelir.
Sızdıran ReLU, ünite aktif değilken küçük, pozitif bir gradyana izin vererek bunu ele alır. Negatif girdiler için sıfır çıktı vermek yerine, küçük bir sabit ("sızıntı") ile çarpılmış bir değer verir. Bu, nöronun asla sıfır gradyana sahip olmamasını sağlayarak iyileşmesine ve öğrenmeye devam etmesine olanak tanır. Bu yaklaşım ilk olarak Konvolüsyonel Ağda Düzeltilmiş Aktivasyonların Ampirik Değerlendirmesi başlıklı makalede detaylandırılmıştır.
Sızdıran ReLU'nun daha istikrarlı eğitimi teşvik etme yeteneği, onu yapay zekanın (AI) çeşitli alanlarında değerli kılmıştır.
Sızdıran ReLU, orijinal ReLU'yu geliştirmek için tasarlanmış birkaç aktivasyon fonksiyonundan biridir. Diğerleriyle olan ilişkisinin anlaşılması, belirli bir görev için doğru fonksiyonun seçilmesine yardımcı olur.
Aktivasyon fonksiyonunun optimum seçimi genellikle belirli mimariye, veri kümesine ( Ultralytics Veri Kümelerinde bulunanlar gibi) ve hiperparametre ayarlamasından elde edilen sonuçlara bağlıdır. Sızdıran ReLU, basitliği, düşük hesaplama yükü ve nöron ölümünü önlemedeki etkinliği nedeniyle güçlü bir seçim olmaya devam etmektedir.
PyTorch ve TensorFlow gibi büyük derin öğrenme çerçeveleri, PyTorch'un LeakyReLU ve TensorFlow'un LeakyReLU için resmi belgelerinde görüldüğü gibi basit uygulamalar sağlar. Bu erişilebilirlik, geliştiricilerin Ultralytics HUB gibi platformları kullanarak bunu kolayca denemelerine ve modellerine entegre etmelerine olanak tanır.