Sözlük

Aşırı Uyum

Makine öğreniminde aşırı uyumun nasıl belirleneceğini, önleneceğini ve ele alınacağını öğrenin. Model genellemesini ve gerçek dünya performansını iyileştirmeye yönelik teknikleri keşfedin.

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Makine öğreniminde (ML) aşırı uyum, bir model eğitim verilerini çok iyi öğrendiğinde, altta yatan örüntü yerine gürültü ve rastgele dalgalanmaları yakaladığında ortaya çıkar. Bu durum, eğitim veri setinde mükemmel performansa yol açarken yeni, görülmemiş verilere genellemenin zayıf kalmasına neden olur. Esasen, model çok karmaşık hale gelir ve özellikle eğitim örneklerine göre uyarlanır, kavramları anlamak yerine cevapları ezberlemeye benzer. Bu, özellikle Ultralytics YOLO 'da nesne algılama ve görüntü segmentasyonu gibi görevler için kullanılan sinir ağları gibi karmaşık algoritmalarla yapay zeka modellerini eğitirken karşılaşılan yaygın bir zorluktur.

Aşırı Uyumu Anlamak

ML modelleri eğitim verilerindeki hataları en aza indirmeyi amaçladığı için aşırı uyum ortaya çıkar. Bir model aşırı karmaşıklığa sahipse (örneğin, bir derin öğrenme modelinde çok fazla parametre veya katman), eğitim setinde bulunan rastgele gürültüye bile uyabilir. Bu gürültü, altta yatan gerçek örüntüleri temsil etmez ve yeni veri kümelerinde bulunması olası değildir. Bir takım elbiseyi belirli bir günde birinin tam ölçülerine göre mükemmel bir şekilde uyarladığınızı düşünün - kişinin kilosu hafifçe dalgalanırsa veya başka biri denerse tam oturmayabilir. Makine öğreniminde, eğitim verileri üzerindeki bu "mükemmel uyum", gerçek dünya verileri üzerinde esneklik ve düşük performansla sonuçlanır ve genellikle zayıf genelleme olarak adlandırılır.

Bunun tam tersi olan yetersiz uyum ise bir modelin verilerin altında yatan yapıyı yakalayamayacak kadar basit olduğu durumdur. Yetersiz uyum gösteren bir model hem eğitim hem de yeni veriler üzerinde kötü performans gösterir çünkü yeterince öğrenmemiştir. Amaç, genellikle önyargı-varyans ödünleşimi bağlamında tartışılan optimum dengeyi bulmak ve görülmeyen verilere iyi genelleme yapan bir model oluşturmaktır. Yüksek varyans aşırı uyumun, yüksek önyargı ise yetersiz uyumun karakteristik özelliğidir. Bu değiş tokuş kavramının anlaşılması model geliştirme için çok önemlidir.

Gerçek Dünyadan Aşırı Uyum Örnekleri

  • Tıbbi Görüntü Analizi: MRI taramalarındaki tümörleri tespit etmek gibi tıbbi görüntü analizi için eğitilmiş bir model düşünün. Eğitim verileri öncelikle tek bir MRI tarayıcı modelinden geliyorsa, yapay zeka bu makinenin belirli görüntü özelliklerine (gürültü desenleri veya çözünürlük gibi) aşırı uyum sağlayabilir. Farklı bir tarayıcıdan alınan taramalar veya daha düşük kaliteli görüntüler sunulduğunda, genel tümör özellikleri yerine makineye özgü artefaktları öğrendiği için performansı önemli ölçüde düşebilir. Veri seti önyargısı bu sorunu daha da kötüleştirebilir.
  • Otonom Araçlar: Otonom bir araçta kullanılan bir nesne algılama modeli ağırlıklı olarak açık ve güneşli havalarda çekilen görüntüler üzerinde eğitilmiş olabilir. Bu model benzer test verilerinde yüksek doğruluk elde edebilir ancak şiddetli yağmur, sis veya gece gibi olumsuz koşullarda yayaları, bisikletlileri veya diğer araçları güvenilir bir şekilde tespit edemeyebilir. Farklı koşullarda nesnelerin sağlam ve genel özelliklerini öğrenmek yerine eğitim ortamının belirli görsel ipuçlarına (ör. sert gölgeler, parlak ışık) aşırı uyum sağlamıştır. Potansiyel olarak COCO veya Argoverse gibi veri kümelerini kullanarak çeşitli eğitim verileri sağlamak, bu durumu hafifletmeye yardımcı olur.

Aşırı Uyumun Belirlenmesi

Aşırı uyum genellikle bir modelin eğitim veri kümesindeki performansı ile ayrı bir doğrulama veri kümesindeki performansı karşılaştırılarak belirlenir.

  • Performans Metrikleri: Doğruluk, kesinlik, geri çağırma ve F1 puanı gibi metrikleri izleyin. Eğitim metrikleri iyileşmeye devam ederken doğrulama metrikleri plato çiziyor veya kötüleşiyorsa model büyük olasılıkla aşırı uyum sağlıyor demektir. Kayıp fonksiyonu değeri tipik olarak eğitim setinde önemli ölçüde azalır ancak doğrulama setinde artar veya durağanlaşır. Değerlendirme için çeşitli YOLO performans ölçümlerini keşfedebilirsiniz.
  • Öğrenme Eğrileri: Modelin performansının (ör. kayıp veya doğruluk) hem eğitim hem de doğrulama setleri için epoklar üzerinden çizilmesi görsel içgörü sağlar. Eğitim eğrisi (iyileşen) ve doğrulama eğrisi (durgunlaşan veya azalan) arasında genişleyen bir boşluk, aşırı uyumun klasik bir işaretidir. Öğrenme eğrilerini görselleştirmek bunu teşhis etmeye yardımcı olur.

Aşırı Uyumun Önlenmesi

Çeşitli teknikler aşırı uyumu azaltmaya ve model genellemesini iyileştirmeye yardımcı olabilir:

  • Çapraz Doğrulama: K-Kat çapraz doğrulama gibi teknikler, eğitim ve doğrulama için verilerin farklı alt kümelerini kullanır ve görünmeyen veriler üzerinde model performansının daha sağlam bir tahminini sağlar.
  • Veri Büyütme: Döndürme, ölçekleme, kırpma ve renk kaydırma gibi dönüşümler uygulayarak eğitim veri kümesinin boyutunu ve çeşitliliğini yapay olarak artırma. Ultralytics YOLO veri artırma teknikleri, sağlamlığı artırmaya yardımcı olmak için yerleşiktir.
  • Düzenli hale getirme: Model karmaşıklığına (örneğin, ağırlıkların büyüklüğü) dayalı olarak kayıp fonksiyonuna cezalar eklenmesi. Yaygın yöntemler arasında büyük ağırlıkları caydıran L1 ve L2 düzenlemesi yer alır. L1 ve L2 düzenlileştirme yöntemleri hakkında daha fazla bilgi edinin.
  • Erken Durdurma: Eğitim sırasında modelin doğrulama veri kümesindeki performansını izler ve doğrulama performansı düşmeye başladığında eğitim sürecini durdurarak modelin daha sonraki epoklarda gürültü öğrenmesini önler. Keras'ta erken durdurmanın açıklamasına bakın.
  • Bırakma: Eğitim sırasında nöron aktivasyonlarının bir kısmının rastgele sıfıra ayarlanması. Bu, ağı tek bir nörona bağlı olmayan daha sağlam özellikler öğrenmeye zorlar. Dropout kavramı burada ayrıntılı olarak açıklanmaktadır.
  • Model Budama: Performansı önemli ölçüde etkilemeden karmaşıklığını azaltmak için eğitilmiş bir sinir ağı içindeki daha az önemli parametreleri veya bağlantıları kaldırmak. Neural Magic budama için araçlar sunar.
  • Model Mimarisini Basitleştirin: Daha az karmaşık bir model (örneğin, daha az katman veya parametre) kullanmak, özellikle veri kümesi küçükse, aşırı uyumu önleyebilir. Bu, YOLOv8n ile YOLOv8x' i karşılaştırmak gibi daha küçük bir model varyantı seçmeyi içerebilir.
  • Daha Fazla Veri Elde Edin: Yüksek kaliteli eğitim verilerinin miktarını artırmak, genellikle genellemeyi iyileştirmenin ve aşırı uyumu azaltmanın en etkili yollarından biridir. Çeşitli Ultralytics veri kümelerini keşfedin.

Geliştiriciler, aşırı uyumu anlayarak ve ele alarak daha güvenilir ve etkili yapay zeka modelleri oluşturabilirler. Ultralytics HUB gibi araçlar, model geliştirme yaşam döngüsü sırasında aşırı uyumun tespit edilmesine ve azaltılmasına yardımcı olarak deney izleme ve model değerlendirmesine yardımcı olabilir.

Tümünü okuyun