Sözlük

Düzenli hale getirme

L1, L2, dropout ve erken durdurma gibi düzenlileştirme teknikleriyle aşırı uyumu önleyin ve model genelleştirmesini iyileştirin. Daha fazlasını öğrenin!

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Düzenli hale getirme, Makine Öğreniminde (ML) aşırı uyum adı verilen yaygın bir sorunu önlemek için kullanılan bir dizi tekniktir. Aşırı uyum, bir modelin eğitim verilerini gürültü ve rastgele dalgalanmalar da dahil olmak üzere çok iyi öğrenmesi durumunda ortaya çıkar ve bu da modelin yeni, görünmeyen veriler üzerindeki performansını olumsuz etkiler. Düzenli hale getirme yöntemleri, model karmaşıklığı için bir ceza getirerek modeli yeni verilere daha iyi genelleme yapan daha basit kalıpları öğrenmeye teşvik eder. Bu, bilgisayarla görme (CV) ve doğal dil işleme (NLP) alanlarında kullanılanlar da dahil olmak üzere sağlam yapay zeka modelleri oluşturmak için çok önemlidir.

Makine Öğrenimindeki Önemi

Düzenli hale getirme, özellikle derin öğrenme (DL) modelleri ve sinir ağları (NN) gibi karmaşık modeller olmak üzere güvenilir makine öğrenimi modellerinin eğitimi için esastır. Düzenli hale getirme olmadan, bu modeller altta yatan örüntüleri öğrenmek yerine eğitim verilerini kolayca ezberleyebilir. Bu da eğitim setinde yüksek doğruluğa, ancak doğrulama verilerinde veya gerçek dünya girdilerinde düşük performansa yol açar. Düzenli hale getirme, kayıp fonksiyonuna bir ceza terimi ekleyerek model ağırlıklarının büyüklüğünü kontrol etmeye yardımcı olur, modeli etkili bir şekilde basitleştirir ve genelleme yeteneğini geliştirir. Verilere uyum sağlama ve basitliği koruma arasındaki bu denge genellikle yanlılık-varyans ödünleşimi bağlamında tartışılır. Gibi modeller için Ultralytics YOLOdüzenlileştirme, gerçek zamanlı nesne algılama gibi zorlu görevlerde yüksek doğruluk elde edilmesine katkıda bulunur.

Yaygın Düzenlileştirme Teknikleri

Çeşitli düzenlileştirme teknikleri yaygın olarak kullanılmaktadır:

  • L1 Düzenlemesi (Kement): Katsayıların büyüklüğünün mutlak değerine eşit bir ceza ekler. Bu, bazı ağırlıkların tam olarak sıfır olmasına yol açarak özellik seçimini etkili bir şekilde gerçekleştirebilir. Lasso Regresyonu hakkında daha fazla bilgi edinin.
  • L2 Düzenlemesi (Ridge): Katsayıların büyüklüğünün karesine eşit bir ceza ekler. Ağırlıkları sıfıra doğru küçültür ancak nadiren tam olarak sıfır yapar. Ridge Regresyonu hakkında daha fazla bilgi edinin.
  • Bırakma Katmanı: Öncelikle sinir ağlarında kullanılan dropout, eğitim sırasında nöron çıkışlarının bir kısmını rastgele sıfıra ayarlar. Bu, nöronların çok fazla birlikte uyum sağlamasını önler ve ağı daha sağlam özellikler öğrenmeye zorlar. Ayrıntılar için orijinal Dropout makalesine bakın.
  • Erken Durdurma: Eğitim sırasında modelin bir doğrulama kümesi üzerindeki performansını izler ve performans artışı durduğunda eğitim sürecini durdurarak eğitim ilerledikçe modelin aşırı uyum sağlamasını önler. Bu, model eğitimi ipuçlarında tartışılan yaygın bir uygulamadır.
  • Veri Büyütme: Mevcut verilere rastgele dönüşümler (döndürme, ölçekleme, kırpma gibi) uygulayarak eğitim verilerinin çeşitliliğini artırır. Bu, modelin bu tür değişikliklere karşı daha değişmez olmasına yardımcı olur. Veri artırma tekniklerini keşfedin.

İlgili Kavramlardan Farklılıkları

Düzenli hale getirme, diğer önemli makine öğrenimi kavramlarından farklıdır:

  • Optimizasyon Algoritması: Gradient Descent veya Adam Optimizer gibi algoritmalar kayıp fonksiyonunu en aza indirmek ve eğitim sırasında model parametrelerini güncellemek için kullanılır. Düzenli hale getirme, bir ceza terimi ekleyerek bu kayıp fonksiyonunu değiştirir ve optimizasyon sürecini daha basit modellere doğru yönlendirir, ancak optimizasyon algoritmasının kendisi değildir.
  • Hiperparametre Ayarlama: Bu, genellikle ızgara arama gibi teknikler veya Ultralytics HUB gibi platformlarda bulunan otomatik yöntemler kullanılarak bir model için en uygun hiperparametrelerin (örneğin, öğrenme hızı, katman sayısı) bulunmasını içerir. Düzenlemenin gücü (örneğin, L1/L2'deki ceza katsayısı) kendi başına ayarlanması gereken bir hiperparametredir, ancak düzenleme uygulanan tekniktir, hiperparametre ayarlama ise diğer parametrelerle birlikte gücünü ayarlama işlemidir.

Gerçek Dünya Uygulamaları

Düzenli hale getirme teknikleri, birçok yapay zeka uygulamasının pratik başarısı için gereklidir:

Örnek 1: Görüntü Sınıflandırma

Görüntü sınıflandırmada, CNN'ler gibi derin sinir ağları milyonlarca parametreye sahip olabilir. Düzenli hale getirme (Dropout veya L2 gibi) olmadan, bu modeller ImageNet gibi veri kümelerine kolayca aşırı uyum sağlayabilir. Düzenli hale getirme, modelin belirli eğitim görüntülerini ezberlemek yerine genel görsel özellikleri (kenarlar, dokular, şekiller) öğrenmesini sağlayarak tıbbi görüntü analizinden otonom sürüşe kadar çeşitli uygulamalarda karşılaşılan yeni görüntülerde daha iyi sınıflandırma doğruluğu elde edilmesine yardımcı olur. Bilgisayarla görme projelerinde aşırı uyumun nasıl ele alındığını görün.

Örnek 2: Doğal Dil İşleme

Duygu analizi veya makine çevirisi gibi NLP görevlerinde, Transformers gibi modeller, özellikle sınırlı eğitim verileriyle aşırı uyumdan da muzdarip olabilir. Modelin yalnızca eğitim külliyatında bulunan belirli kelimelere veya ifadelere çok fazla güvenmesini önlemek için bırakma ve ağırlık azaltma (L2) dahil olmak üzere düzenleme teknikleri uygulanır. Bu, modelin sohbet robotları veya içerik özetleme araçları gibi gerçek dünya senaryolarında insan dilini daha etkili bir şekilde anlama ve üretme yeteneğini geliştirir.

Tümünü okuyun