Sözlük

Normalleştirme

Makine öğreniminde normalleştirmenin gücünü keşfedin! Model eğitimini nasıl geliştirdiğini, performansı nasıl artırdığını ve sağlam yapay zeka çözümleri sağladığını öğrenin.

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Normalleştirme, makine öğrenimi (ML) ve veri biliminde yaygın olarak kullanılan temel bir veri ön işleme tekniğidir. Birincil amacı, sayısal veri özelliklerini, değer aralıklarındaki farklılıkları bozmadan, genellikle 0 ile 1 veya -1 ile 1 arasında ortak, standart bir aralığa yeniden ölçeklendirmektir. Bu işlem, tüm özelliklerin model eğitimine daha eşit şekilde katkıda bulunmasını sağlayarak, doğal olarak daha büyük değerlere sahip özelliklerin (bir veri kümesindeki maaş gibi), daha küçük değerlere sahip özelliklere (deneyim yılı gibi) kıyasla sonucu orantısız şekilde etkilemesini önler. Normalleştirme özellikle derin öğrenmede (DL) kullanılan gradyan iniş tabanlı yöntemler ve çeşitli optimizasyon algoritmaları gibi özellik ölçeklendirmesine duyarlı algoritmalar için çok önemlidir.

Normalleştirme Neden Önemlidir?

Gerçek dünya veri kümeleri genellikle çok farklı ölçeklere ve birimlere sahip özellikler içerir. Örneğin, müşteri kaybını tahmin etmeye yönelik bir veri kümesinde 'hesap bakiyesi' yüzlerce ila milyonlarca arasında değişirken, 'ürün sayısı' 1 ila 10 arasında değişebilir. Normalleştirme olmadan, Destek Vektör Makineleri (SVM) veya sinir ağları (NN) gibi mesafeleri hesaplayan veya gradyanları kullanan makine öğrenimi algoritmaları, sadece ölçeği nedeniyle daha büyük aralığa sahip özelliği yanlış bir şekilde daha önemli olarak algılayabilir. Normalleştirme, her bir özelliğin katkısının büyüklüğüne değil, tahmin gücüne dayalı olmasını sağlayarak oyun alanını düzleştirir. Bu, eğitim sırasında daha hızlı yakınsamaya (azaltılmış epoklarda görüldüğü gibi), gelişmiş model doğruluğuna ve daha kararlı, sağlam modellere yol açar. Bu kararlılık, aşağıdaki gibi modelleri eğitirken faydalıdır Ultralytics YOLONesne algılama veya örnek segmentasyonu gibi görevler için ortalama Ortalama Hassasiyet (mAP) gibi metrikleri potansiyel olarak iyileştirir.

Yaygın Normalleştirme Teknikleri

Verileri yeniden ölçeklendirmek için her biri farklı durumlar için uygun olan çeşitli yöntemler mevcuttur:

  • Min-Maks Ölçeklendirme: Özellikleri sabit bir aralığa, tipik olarak [0, 1]'e yeniden ölçeklendirir. Şu şekilde hesaplanır: (değer - min) / (maks - min). Bu yöntem orijinal dağılımın şeklini korur ancak aykırı değerlere karşı hassastır.
  • Z-skor Standardizasyonu (Standart Ölçekleme): Özellikleri 0 ortalama ve 1 standart sapmaya sahip olacak şekilde yeniden ölçeklendirir: (değer - ortalama) / standart sapma. Min-Maks ölçeklendirmenin aksine, değerleri belirli bir aralığa bağlamaz, bu da sınırlı bir aralıkta girdi gerektiren algoritmalar için bir dezavantaj olabilir, ancak aykırı değerleri daha iyi ele alır. Bu ve diğer yöntemler hakkında daha fazla bilgiyi Scikit-learn Preprocessing dokümantasyonunda bulabilirsiniz.
  • Sağlam Ölçeklendirme: Min/maks veya ortalama/std dev yerine çeyrekler arası aralık (IQR) gibi aykırı değerlere karşı dayanıklı istatistikler kullanır. Veri kümesi önemli aykırı değerler içerdiğinde özellikle kullanışlıdır. Robust Scaling hakkında daha fazla bilgi edinin.

Bu teknikler arasındaki seçim genellikle belirli veri kümesine ( Ultralytics Veri Kümelerinde bulunanlar gibi) ve kullanılan makine öğrenimi algoritmasının gereksinimlerine bağlıdır. Açıklamalı verilerin ön işlenmesine ilişkin kılavuzlar genellikle belirli görevlerle ilgili normalleştirme adımlarını kapsar.

Normalleştirme ve Standartlaştırma ve Toplu Normalleştirme

Normalleştirmeyi ilgili kavramlardan ayırmak önemlidir:

  • Standartlaştırma: Genellikle Z-skor standardizasyonu ile birbirinin yerine kullanılan bu teknik, verileri sıfır ortalama ve birim varyansa sahip olacak şekilde dönüştürür. Normalleştirme tipik olarak verileri sabit bir aralığa (örneğin 0 ila 1) ölçeklendirirken, standardizasyon verileri ortalama etrafında merkezler ve belirli bir aralıkla sınırlamak zorunda kalmadan standart sapmaya göre ölçeklendirir.
  • Toplu Normalleştirme: Bu, eğitim sırasında bir sinir ağı içinde, özellikle katmanların veya aktivasyonların girdilerine uygulanan bir tekniktir. Her bir mini parti için bir önceki aktivasyon katmanının çıktılarını normalleştirir, iç kovaryant kayması sorununu azaltarak eğitim sürecini stabilize eder ve hızlandırır. İlk veri kümesine uygulanan bir ön işleme adımı olan özellik normalizasyonunun (Min-Max veya Z-score) aksine, Toplu Normalizasyon ağ mimarisinin bir parçasıdır ve model eğitimi sırasında dinamik olarak adapte olur.

Normalleştirme Uygulamaları

Normalleştirme, çeşitli Yapay Zeka (AI) ve makine öğrenimi görevleri için veri hazırlamada her yerde bulunan bir adımdır:

Özetle, normalizasyon, veri özelliklerini tutarlı bir aralığa ölçeklendiren, Ultralytics HUB gibi araçlar kullanılarak geliştirilen ve eğitilenler de dahil olmak üzere birçok makine öğrenimi modelinin eğitim sürecini, kararlılığını ve performansını iyileştiren hayati bir ön işleme adımıdır. Adil özellik katkısı sağlar ve girdi ölçeğine duyarlı algoritmalar için gereklidir, daha sağlam ve doğru yapay zeka çözümlerine katkıda bulunur.

Tümünü okuyun