Bırakma katmanlarının genelleme, sağlamlık ve model performansını iyileştirerek sinir ağlarında aşırı uyumu nasıl önlediğini keşfedin.
Dropout Katmanı, derin öğrenme modellerinin, özellikle de sinir ağlarının eğitiminde aşırı uyumla mücadele etmek için kullanılan temel bir tekniktir. Aşırı uyum, bir modelin gürültüsü ve belirli kalıpları da dahil olmak üzere eğitim verilerini çok iyi öğrendiğinde ortaya çıkar ve bu da yeni, görülmemiş verilere genelleme yeteneğini engeller. Dropout bunu, her eğitim iterasyonu sırasında bir katmandaki nöron aktivasyonlarının bir kısmını geçici ve rastgele "bırakarak" veya sıfıra ayarlayarak ele alır. Bu, ağı tek bir nörona bağlı olmayan daha sağlam özellikler öğrenmeye zorlar.
Eğitim süreci sırasında, bir gruptaki her eğitim örneği için, bırakma katmanındaki her nöronun belirli bir devre dışı bırakılma olasılığı ("bırakma oranı", tipik olarak 0,1 ila 0,5 arasındadır) vardır. Bu, söz konusu ileri ve geri geçiş için çıkışının sıfıra ayarlandığı anlamına gelir. Kalan aktif nöronların çıkışları, beklenen genel aktivasyon toplamını korumak için 1/(1-dropout oranı)'na eşdeğer bir faktörle ölçeklendirilir. Bu süreç, her eğitim adımı için etkili bir şekilde biraz farklı "inceltilmiş" ağ mimarileri oluşturarak nöronların çok fazla birlikte uyarlanmasını önler ve onları daha bağımsız olarak yararlı özellikler öğrenmeye teşvik eder. Daha da önemlisi, model değerlendirme veya çıkarım aşamasında, Bırakma Katmanı kapatılır ve tüm nöronlar öğrenilen ağırlıklarıyla kullanılır, böylece tahminler için ağın tam kapasitesinin kullanılması sağlanır.
Bırakma Katmanlarını kullanmanın birincil faydası gelişmiş model genellemesidir. Nöronlar arasındaki karmaşık ortak adaptasyonları önleyerek, bırakma, modeli eğitim verilerindeki belirli gürültü ve kalıplara karşı daha az hassas hale getirir ve görünmeyen doğrulama veya test verilerinde daha iyi performans sağlar. L1/L2 ağırlık azaltma gibi tekniklere benzeyen ancak stokastik bir mekanizma aracılığıyla çalışan bir düzenleme biçimi olarak işlev görür. Özellikle aşırı uyumun yaygın bir zorluk olduğu çok parametreli büyük ağlarda etkilidir. Orijinal konsept "Dropout: Sinir Ağlarının Aşırı Uyum Sağlamasını Önlemenin Basit Bir Yolu" başlıklı makalede detaylandırılmıştır.
Bırakma Katmanları, yapay zeka ve makine öğreniminin çeşitli alanlarında yaygın olarak kullanılmaktadır:
Dropout, aşırı uyumu önlemek için kullanılan çeşitli tekniklerden biridir. Diğerleri şunları içerir:
Dropout, eğitim sırasında nöron aktivasyonlarını stokastik olarak doğrudan manipüle ederek, inceltilmiş ağlardan oluşan bir topluluğu etkili bir şekilde eğiterek farklılık gösterir.
Bırakma Katmanları, başlıca derin öğrenme çerçevelerinde standart bileşenlerdir. Bunlar aşağıdaki gibi kütüphanelerde kolayca bulunabilir PyTorch ve TensorFlowBu da onları sinir ağı mimarilerine dahil etmeyi kolaylaştırır.