Sözlük

Parti Büyüklüğü

Yığın boyutunun derin öğrenme üzerindeki etkisini keşfedin. Eğitim hızını, bellek kullanımını ve model performansını verimli bir şekilde optimize edin.

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Makine öğreniminde, özellikle derin öğrenme modelleri eğitilirken, yığın boyutu bir iterasyonda kullanılan eğitim örneklerinin sayısını ifade eder. Veri kümesinin tamamını bir kerede işlemek yerine, ki bu genellikle hesaplama açısından uygun değildir, veriler daha küçük, yönetilebilir gruplara veya partilere bölünür. Modelin parametreleri her parti işlendikten sonra güncellenir, bu da özellikle bilgisayarla görmede yaygın olan büyük veri kümelerinde eğitimi daha verimli hale getirir.

Parti Büyüklüğünün Önemi

Uygun bir yığın boyutu seçmek, model eğitim dinamiklerini, kaynak kullanımını ve nihai performansı önemli ölçüde etkileyen kritik bir hiper parametredir.

  • Eğitim Hızı: Daha büyük yığın boyutları genellikle daha hızlı eğitim dönemlerine yol açar çünkü GPU'lar gibi donanımlarda bulunan paralel işleme yeteneklerinin daha iyi kullanılmasına izin verirler. Hesaplama döngüsü başına daha fazla veri işlenir.
  • Bellek Kullanımı: Daha büyük yığınların doğrudan bir sonucu, artan bellek tüketimidir. Yığın boyutu mevcut donanım belleğine (örn. GPU VRAM) sığmalıdır. Bu sınırın aşılması hatalara neden olur veya eğitimi büyük ölçüde yavaşlatır. Bazı platformlar bellek kullanımını optimize etme konusunda rehberlik sunar.
  • Model Performansı ve Genelleştirme: Daha küçük yığın boyutları, Stokastik Gradyan İnişi (SGD) gibi teknikler aracılığıyla eğitim sırasında gradyan tahminine daha fazla gürültü katar. Bu gürültü bir tür düzenlileştirme işlevi görebilir ve potansiyel olarak modelin kayıp ortamındaki keskin minimumlardan kaçınmasına ve görülmeyen verilere daha iyi genelleme yapmasına yardımcı olarak aşırı uyum riskini azaltır. Ancak, çok küçük gruplar eğitimi istikrarsız hale getirebilir. Daha büyük gruplar daha doğru bir gradyan tahmini sağlar, ancak daha az optimum minimuma yakınsayabilir ve kararlılık için öğrenme hızı ısınması gibi teknikler gerektirebilir.

Doğru Parti Büyüklüğünü Seçme

Optimum yığın boyutunun seçilmesi, hesaplama verimliliği, bellek kısıtlamaları ve model genellemesi arasındaki ödünleşimlerin dengelenmesini içerir. Tek bir "en iyi" toplu iş boyutu yoktur; bu genellikle belirli veri kümesine, model mimarisine ve mevcut donanıma bağlıdır.

Parti Büyüklüğü ve Diğer İlgili Terimler

Parti büyüklüğünü ilgili kavramlardan ayırmak önemlidir:

  • Yineleme: Modelin ağırlıklarının tek bir güncellemesini temsil eder. Standart eğitim döngülerinde bir iterasyon, bir veri yığınının işlenmesine ve geriye yayılımın gerçekleştirilmesine karşılık gelir.
  • Dönem: Tüm eğitim veri kümesinden bir tam geçişi temsil eder. Bir veri kümesinde 1000 örnek varsa ve parti boyutu 100 ise, bir epoğu tamamlamak için 10 iterasyon gerekir (1000 / 100 = 10).

Gerçek Dünya Uygulamaları

Nesne Algılama

tarafından gerçekleştirilenler gibi nesne algılama görevlerinde Ultralytics YOLO modellerinde yığın boyutu, eğitim sırasında aynı anda kaç görüntünün işleneceğini doğrudan etkiler. Örneğin, aşağıdaki gibi bir modeli eğitirken YOLOv8VisDrone gibi bir veri kümesinde, daha büyük bir yığın boyutu (örneğin, 32 veya 64), yetenekli donanımlarda epok başına eğitim süresini önemli ölçüde hızlandırabilir. Bununla birlikte, GPU belleğinin dikkatli bir şekilde izlenmesi gerekir. Eğitim, Ultralytics HUB gibi platformlar kullanılarak etkili bir şekilde yönetilebilir ve izlenebilir.

Görüntü Sınıflandırma

Bir görüntü sınıflandırma modelini, belki de ImageNet veri kümesi üzerinde eğitirken, yığın boyutu eğitim sürecinin kararlılığını ve yakınsamasını etkiler. Bir araştırmacı 256'lık bir yığın boyutuyla başlayabilir ve kayıp fonksiyonu davranışını ve doğrulama doğruluğunu gözlemleyerek ayarlama yapabilir. Karmaşık mimarilere sahip modeller için veya Google Colab ortamı gibi sınırlı donanım kaynakları kullanılırken daha küçük gruplar gerekli olabilir.

Tümünü okuyun