Parametre Verimli İnce Ayar (PEFT), makine öğreniminde (ML) büyük, önceden eğitilmiş modelleri (t emel modeller gibi) modelin tüm parametrelerini güncellemeye gerek kalmadan belirli aşağı akış görevlerine uyarlamak için kullanılan bir dizi tekniği tanımlar. Bunun yerine, PEFT yöntemleri yalnızca küçük bir parametre alt kümesini değiştirmeye veya az sayıda yeni parametre eklemeye odaklanır. Bu yaklaşım, büyük dil modelleri (LLM 'ler) veya bilgisayarla görmede (CV) kullanılan büyük ölçekli görme modelleri gibi büyük modellere ince ayar yapmakla ilişkili hesaplama ve depolama maliyetlerini büyük ölçüde azaltarak özelleştirmeyi daha erişilebilir ve verimli hale getirir.
Uygunluk ve Faydalar
Genellikle milyarlarca parametre içeren son derece büyük önceden eğitilmiş modellerin yükselişi, geleneksel ince ayar yöntemlerini kaynak açısından yoğun hale getirmiştir. Bu tür modellere tam olarak ince ayar yapmak, önemli miktarda hesaplama gücü (genellikle birden fazla üst düzey GPU), büyük miktarda bellek ve uyarlanan her model için önemli miktarda depolama alanı gerektirir. PEFT, birkaç temel avantaj sunarak bu zorlukların üstesinden gelir:
- Azaltılmış Hesaplama Maliyeti: Parametrelerin yalnızca küçük bir kısmının eğitilmesi, önemli ölçüde daha az bilgi işlem gücü ve zaman gerektirir, bu da potansiyel olarak Ultralytics HUB Cloud Training gibi platformları kullanarak daha hızlı yineleme ve denemeye olanak tanır.
- Daha Düşük Bellek Gereksinimi: Daha az aktif parametre, eğitim ve çıkarım sırasında daha az bellek gerektiği anlamına gelir, bu da tüketici sınıfı donanım veya uç cihazlarda büyük modellere ince ayar yapılmasını mümkün kılar.
- Daha Küçük Depolama Alanı: Her görev için ince ayarlı modelin tam bir kopyasını kaydetmek yerine, PEFT genellikle yalnızca değiştirilen veya eklenen küçük parametreler kümesinin depolanmasını gerektirir ve bu da önemli depolama tasarrufu sağlar.
- Aşırı Uyumun Azaltılması: Eğitilebilir parametrelerin sayısını sınırlandırarak PEFT, özellikle daha küçük veri kümeleri üzerinde ince ayar yaparken aşırı uyum riskini azaltabilir.
- Katastrofik Unutmanın Önlenmesi: PEFT yöntemleri, temel model parametrelerinin çoğunu dondurulmuş halde tutarak, ön eğitim sırasında öğrenilen genel bilginin korunmasına yardımcı olur ve bir modelin yeni görevleri öğrenirken önceki yeteneklerini kaybettiği yıkıcı unutmanın üstesinden gelir.
- Verimli Model Dağıtımı: Göreve özgü parametrelerin daha küçük boyutta olması, özellikle uç yapay zeka gibi kaynak kısıtlı ortamlarda model dağıtımını daha basit hale getirir.
Temel Kavramlar ve Teknikler
PEFT, bir temel modelden elde edilen bilginin yeni bir göreve uygulandığı transfer öğrenme kavramına dayanır. Standart ince ayar birçok (veya tüm) katmanı ayarlarken, PEFT özel yöntemler kullanır. Bazı popüler PEFT teknikleri şunlardır:
- Adaptörler: Önceden eğitilmiş bir modelin katmanları arasına yerleştirilen küçük sinir ağı modülleri. Orijinal model ağırlıkları donmuş halde kalırken, ince ayar sırasında yalnızca bu adaptör modüllerinin parametreleri eğitilir.
- LoRA (Düşük Sıralı Adaptasyon): Bu teknik, eğitilebilir düşük rütbeli matrisleri büyük bir modelin katmanlarına (genellikle Dönüştürücü katmanlar) enjekte eder. Modeli uyarlamak için gereken değişikliğin düşük bir "içsel rütbeye" sahip olduğunu ve verimli bir şekilde temsil edilebileceğini varsayar. Ayrıntılar için orijinal LoRA araştırma makalesini okuyun.
- Önek Ayarlama: Temel LLM parametrelerini dondurulmuş halde tutarak girişe bir dizi sürekli, göreve özgü vektör (önek) ekler. Sadece önek parametreleri öğrenilir.
- İpucu Ayarlama: Prefix-Tuning'e benzer, ancak doğrudan geri yayılım yoluyla optimize edilen girdi dizisine eğitilebilir "yumuşak istemler" (katıştırmalar) ekleyerek basitleştirir.
Hugging Face PEFT kütüphan esi gibi kütüphaneler, çeşitli PEFT yöntemlerinin uygulamalarını sağlayarak bunların yaygın makine öğrenimi iş akışlarına entegre edilmesini kolaylaştırır.
İlgili Kavramlardan Ayrım
PEFT'i diğer model uyarlama ve optimizasyon tekniklerinden ayırmak önemlidir:
- İnce ayar: Standart ince ayar tipik olarak önceden eğitilmiş model parametrelerinin tamamını veya önemli bir kısmını yeni bir veri kümesi üzerinde günceller. Buna karşın PEFT, parametrelerin yalnızca çok küçük bir kısmını değiştirir veya birkaç yeni parametre ekler.
- Model Budama: Bu teknik, genellikle eğitimden veya tam ince ayardan sonra, boyutunu ve hesaplama maliyetini azaltmak için eğitilmiş bir modelden gereksiz veya önemsiz parametrelerin (ağırlıklar veya bağlantılar) çıkarılmasını içerir. PEFT, başlangıçta eğitilenleri sınırlandırarak verimli adaptasyona odaklanır.
- Bilgi Damıtma: Daha büyük, önceden eğitilmiş bir "öğretmen" modelinin davranışını taklit etmek için daha küçük bir "öğrenci" modelinin eğitilmesini içerir. PEFT, verimli bir şekilde de olsa büyük modelin kendisini doğrudan uyarlar.
- Hiperparametre Ayarlama: Bu süreç, eğitim süreci için en uygun yapılandırma ayarlarını bulmaya odaklanır (örn, öğrenme oranı, parti büyüklüğü) modelin öğrenilen parametrelerini yeni bir görev için uyarlamak yerine. Gibi araçlar Ultralytics
Tuner
sınıf Bunu kolaylaştır.
Gerçek Dünya Uygulamaları
PEFT, çeşitli alanlardaki büyük modellerin pratik olarak uygulanmasını sağlar:
Özünde, Parametre Verimli İnce Ayar, Ultralytics YOLO modelleri gibi son teknoloji yapay zeka model lerini çok çeşitli özel uygulamalara uyarlamak için daha çok yönlü ve uygun maliyetli hale getirerek güçlü yapay zeka yeteneklerine erişimi demokratikleştirir.