Sözlük

Bırakma Katmanı

Bırakma katmanlarının genelleme, sağlamlık ve model performansını iyileştirerek sinir ağlarında aşırı uyumu nasıl önlediğini keşfedin.

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Dropout Katmanı, derin öğrenme modellerinin, özellikle de sinir ağlarının eğitiminde aşırı uyumla mücadele etmek için kullanılan temel bir tekniktir. Aşırı uyum, bir modelin gürültüsü ve belirli kalıpları da dahil olmak üzere eğitim verilerini çok iyi öğrendiğinde ortaya çıkar ve bu da yeni, görülmemiş verilere genelleme yeteneğini engeller. Dropout bunu, her eğitim iterasyonu sırasında bir katmandaki nöron aktivasyonlarının bir kısmını geçici ve rastgele "bırakarak" veya sıfıra ayarlayarak ele alır. Bu, ağı tek bir nörona bağlı olmayan daha sağlam özellikler öğrenmeye zorlar.

Dropout Nasıl Çalışır?

Eğitim süreci sırasında, bir gruptaki her eğitim örneği için, bırakma katmanındaki her nöronun belirli bir devre dışı bırakılma olasılığı ("bırakma oranı", tipik olarak 0,1 ila 0,5 arasındadır) vardır. Bu, söz konusu ileri ve geri geçiş için çıkışının sıfıra ayarlandığı anlamına gelir. Kalan aktif nöronların çıkışları, beklenen genel aktivasyon toplamını korumak için 1/(1-dropout oranı)'na eşdeğer bir faktörle ölçeklendirilir. Bu süreç, her eğitim adımı için etkili bir şekilde biraz farklı "inceltilmiş" ağ mimarileri oluşturarak nöronların çok fazla birlikte uyarlanmasını önler ve onları daha bağımsız olarak yararlı özellikler öğrenmeye teşvik eder. Daha da önemlisi, model değerlendirme veya çıkarım aşamasında, Bırakma Katmanı kapatılır ve tüm nöronlar öğrenilen ağırlıklarıyla kullanılır, böylece tahminler için ağın tam kapasitesinin kullanılması sağlanır.

Faydaları ve Önemi

Bırakma Katmanlarını kullanmanın birincil faydası gelişmiş model genellemesidir. Nöronlar arasındaki karmaşık ortak adaptasyonları önleyerek, bırakma, modeli eğitim verilerindeki belirli gürültü ve kalıplara karşı daha az hassas hale getirir ve görünmeyen doğrulama veya test verilerinde daha iyi performans sağlar. L1/L2 ağırlık azaltma gibi tekniklere benzeyen ancak stokastik bir mekanizma aracılığıyla çalışan bir düzenleme biçimi olarak işlev görür. Özellikle aşırı uyumun yaygın bir zorluk olduğu çok parametreli büyük ağlarda etkilidir. Orijinal konsept "Dropout: Sinir Ağlarının Aşırı Uyum Sağlamasını Önlemenin Basit Bir Yolu" başlıklı makalede detaylandırılmıştır.

Gerçek Dünya Uygulamaları

Bırakma Katmanları, yapay zeka ve makine öğreniminin çeşitli alanlarında yaygın olarak kullanılmaktadır:

  1. Bilgisayarla Görme: Nesne algılama ve görüntü sınıflandırma gibi görevlerde, Dropout genellikle Evrişimsel Sinir Ağlarının (CNN'ler) tam bağlı katmanlarına uygulanır. Gibi modeller Ultralytics YOLO Eğitim sırasında düzenli hale getirme tekniklerinden dolaylı olarak faydalanarak COCO gibi çeşitli görüntü veri kümelerinde veya Ultralytics HUB aracılığıyla hazırlanan özel verilerde daha iyi genelleme yapmalarına yardımcı olur. Bu, otonom araçlar veya güvenlik sistemlerindeki uygulamalar için çok önemli olan çeşitli gerçek dünya sahnelerindeki nesneleri tespit ederken sağlamlık sağlar.
  2. Doğal Dil İşleme (NLP): Dropout, LSTM'ler gibi Tekrarlayan Sinir Ağlarında (RNN 'ler) ve makine çevirisi veya duygu analizi gibi görevler için kullanılan Dönüştürücü modellerinde yaygın olarak kullanılır. Modellerin eğitim külliyatından belirli ifadeleri veya cümle yapılarını ezberlemesini önlemeye yardımcı olarak doğal dilin daha iyi anlaşılmasını ve üretilmesini sağlar. Hugging Face Transformers gibi çerçeveler, model mimarilerine genellikle dropout özelliğini dahil eder.

İlgili Kavramlar ve Ayrımlar

Dropout, aşırı uyumu önlemek için kullanılan çeşitli tekniklerden biridir. Diğerleri şunları içerir:

  • L1 ve L2 Düzenlemesi: Bunlar, model ağırlıklarının büyüklüğüne bağlı olarak kayıp fonksiyonuna bir ceza ekleyerek daha küçük ağırlıkları teşvik eder.
  • Toplu Normalleştirme: Her mini parti için girdileri bir katmana normalleştirir. Öncelikle eğitimi stabilize etmek ve hızlandırmak için kullanılsa da, hafif bir düzenleyici etkiye de sahip olabilir.
  • Veri Büyütme: Giriş verilerine döndürme, çevirme veya renk değişiklikleri gibi dönüşümler uygulayarak eğitim veri kümesinin boyutunu ve çeşitliliğini yapay olarak artırır. Ultralytics belgelerinde artırma tekniklerini keşfedin.

Dropout, eğitim sırasında nöron aktivasyonlarını stokastik olarak doğrudan manipüle ederek, inceltilmiş ağlardan oluşan bir topluluğu etkili bir şekilde eğiterek farklılık gösterir.

Uygulama

Bırakma Katmanları, başlıca derin öğrenme çerçevelerinde standart bileşenlerdir. Bunlar aşağıdaki gibi kütüphanelerde kolayca bulunabilir PyTorch ve TensorFlowBu da onları sinir ağı mimarilerine dahil etmeyi kolaylaştırır.

Tümünü okuyun