Yapay zeka ve makine öğrenimi için Sızdıran ReLU aktivasyonunun gücünü keşfedin. Ölmekte olan ReLU sorununu çözün ve CV, NLP, GAN'lar ve daha fazlasında model performansını artırın!
Genellikle Sızdıran ReLU olarak bilinen Sızdıran Düzeltilmiş Doğrusal Birim, Sinir Ağlarında (NN), özellikle Derin Öğrenme (DL) modellerinde kullanılan bir aktivasyon fonksiyonudur. Standart Rectified Linear Unit (ReLU) aktivasyon fonksiyonunun değiştirilmiş bir versiyonudur ve özellikle "ölen ReLU" sorununu ele almak için tasarlanmıştır. Bu sorun, nöronlar inaktif hale geldiğinde ve herhangi bir girdi için sıfır çıktı verdiğinde ortaya çıkar ve geri yayılma sırasında sıfır gradyan nedeniyle eğitim sürecinde öğrenmelerini etkili bir şekilde engeller.
ReLU gibi, Sızdıran ReLU da pozitif olması durumunda girdiyi doğrudan çıkarır. Ancak, herhangi bir negatif girdi için sıfır çıktı veren ReLU'nun aksine, Leaky ReLU negatif girdiler için küçük, sıfır olmayan, sabit bir gradyana (eğim) izin verir. Bu "sızıntı", nöronların girdileri negatif olduğunda bile aktif kalmasını sağlayarak gradyanların ağ boyunca geriye doğru akmasına ve öğrenmenin devam etmesine olanak tanır. Küçük eğim tipik olarak sabit küçük bir değerdir (örneğin, 0,01), ancak Parametrik ReLU (PReLU) gibi varyasyonlar bu eğimin eğitim sırasında öğrenilmesine izin verir.
Sızdıran ReLU'nun arkasındaki temel motivasyon, ölen ReLU sorununu hafifletmektir. Standart bir ReLU nöronu büyük bir negatif girdi aldığında, çıktısı sıfır olur. Eğitim sırasında geri akan gradyan da sıfırsa, nöronun ağırlıkları güncellenmez ve tüm girdiler için kalıcı olarak hareketsiz kalabilir. Sızdıran ReLU, negatif girdiler için bile küçük, sıfır olmayan bir gradyanın her zaman var olmasını sağlayarak bunu önler, böylece nöronların tamamen ölmesini önler ve özellikle kaybolan gr adyan sorununun da bir endişe kaynağı olabileceği çok derin ağlarda eğitim sürecinin sağlamlığını artırır.
Sızdıran ReLU, eğitim boyunca aktif nöronların korunmasının kritik olduğu senaryolarda değerli bir araçtır. Standart ReLU'ya benzer hesaplama verimliliği, onu büyük ölçekli modeller için uygun hale getirir. Anahtar uygulamalar şunları içerir:
Standart ReLU ile karşılaştırıldığında, Leaky ReLU'nun ana avantajı ölen nöron sorunundan kaçınmasıdır. ELU (Üstel Doğrusal Birim) veya SiLU (Sigmoid Doğr usal Birim) gibi diğer aktivasyon fonksiyonları da bu sorunu ele alır ve bazen aşağıdaki gibi modellerde görüldüğü gibi daha yumuşak gradyanlar gibi avantajlar sunar Ultralytics YOLOv8. Ancak, ELU gibi bu alternatifler hesaplama açısından Leaky ReLU'dan daha pahalı olabilir(bkz. aktivasyon fonksiyonu karşılaştırmaları). En uygun seçim genellikle belirli sinir ağı mimarisine, veri kümesine ( Ultralytics Veri Kümelerinde bulunanlar gibi) ve hiperparametre ayarlama gibi işlemlerle elde edilen ampirik sonuçlara bağlıdır. Gibi çerçeveler PyTorchPyTorch Docs) ve TensorFlowTensorFlow Docs), Ultralytics HUB gibi platformlarda denemeyi kolaylaştıran çeşitli aktivasyon fonksiyonları için kolay uygulamalar sağlar.