Makine öğreniminde Yanlılık-Varyans Ödünleşiminde ustalaşın. Optimum model performansı için doğruluk ve genellemeyi dengeleme tekniklerini öğrenin!
Yanlılık-Varyans Değişimi, denetimli Makine Öğreniminde (ML ) bir modelin yanlış varsayımlardan kaynaklanan hataları en aza indirme yeteneği (yanlılık) ile eğitim verilerindeki değişikliklere duyarlılığı (varyans) arasındaki gerilimi tanımlayan temel bir kavramdır. Doğru dengeyi bulmak, yeni, görülmemiş verilere iyi genelleme yapan modeller oluşturmak için çok önemlidir. Yüksek önyargıya sahip bir model eğitim verilerine çok az dikkat eder ve altta yatan örüntüleri aşırı basitleştirirken, yüksek varyansa sahip bir model çok fazla dikkat eder ve esasen gürültüsü de dahil olmak üzere eğitim verilerini ezberler.
Yanlılık, karmaşık olabilen bir gerçek dünya problemine çok daha basit bir modelle yaklaşıldığında ortaya çıkan hatayı temsil eder. Yüksek önyargı, bir algoritmanın özellikler ve hedef çıktılar arasındaki ilgili ilişkileri gözden kaçırmasına neden olarak yetersiz uyum adı verilen bir olguya yol açabilir. Yetersiz uyum sağlayan bir model, altta yatan eğilimi yakalayamadığı için hem eğitim verilerinde hem de görülmeyen test verilerinde kötü performans gösterir. Doğrusal olmayan verilere uygulanan doğrusal regresyon gibi basit modeller genellikle yüksek yanlılık sergiler. Yanlılığı azaltma teknikleri genellikle daha fazla özellik eklemek veya Derin Öğrenmede (DL) bulunanlar gibi daha sofistike algoritmalar kullanmak gibi model karmaşıklığını artırmayı içerir.
Varyans, modelin eğitim verilerindeki dalgalanmalara karşı hassasiyetini temsil eder. Modelin farklı bir eğitim veri kümesi üzerinde eğitilmesi durumunda modelin tahmininin değişeceği miktardır. Yüksek varyans, bir algoritmanın amaçlanan çıktılar yerine eğitim verilerindeki rastgele gürültüyü modellemesine neden olarak aşırı uyuma yol açabilir. Aşırı uyum sağlayan bir model, eğitim verilerinde son derece iyi performans gösterir ancak genelleme yapmadığı için görülmeyen test verilerinde kötü performans gösterir. Çok katmanlı derin sinir ağları veya yüksek dereceli polinom regresyon gibi karmaşık modeller yüksek varyansa eğilimlidir. Varyansın azaltılması genellikle modelin basitleştirilmesini, daha fazla eğitim verisi kullanılmasını veya düzenlileştirme tekniklerinin uygulanmasını içerir.
İdeal olarak, düşük yanlılık ve düşük varyansa sahip bir model isteriz. Ancak bu iki hata kaynağı genellikle birbiriyle ters orantılıdır: yanlılığın azalması varyansı artırma eğilimindedir ve bunun tersi de geçerlidir. Model karmaşıklığının artırılması tipik olarak yanlılığı azaltır ancak varyansı artırır. Tersine, model karmaşıklığının azaltılması önyargıyı artırır ancak varyansı azaltır. Amaç, görülmeyen veriler üzerinde toplam hatayı (önyargı karesi, varyans ve indirgenemez hata toplamı) en aza indiren en uygun model karmaşıklığı seviyesini bulmaktır. Bu, "The Elements of Statistical Learning" gibi kaynaklarda tartışıldığı gibi, genellikle model karmaşıklığına karşı toplam hata için U şeklinde bir eğri olarak görselleştirilen önyargı ve varyansın dikkatlice dengelenmesini içerir.
Çeşitli teknikler yanlılık-varyans dengesini yönetmeye yardımcı olur:
Önyargı-Varyans Ödünleşimini yapay zekadaki diğer önyargı biçimlerinden ayırt etmek önemlidir:
Bias-Variance Tradeoff model karmaşıklığı ve veri hassasiyetinden kaynaklanan model genelleme hatasına odaklanırken, AI Bias ve Dataset Bias adalet ve temsil konularıyla ilgilidir. Ödünleşimi yönetmek, Doğruluk veya Ortalama Ortalama Kesinlik (mAP) gibi tahmine dayalı performans ölçümlerini optimize etmeyi amaçlarken, YZ/Veri Seti yanlılığını ele almak eşitlikçi sonuçlar sağlamayı amaçlamaktadır. YOLO Performans Ölçütleri kılavuzumuzda performans ölçütleri hakkında daha fazla bilgi edinebilirsiniz.