Sözlük

Parametre Verimli İnce Ayar (PEFT)

Parameter-Efficient Fine-Tuning'i (PEFT) keşfedin: büyük yapay zeka modellerini minimum kaynakla verimli bir şekilde uyarlayın. NLP, görme ve daha birçok alandaki görevleri optimize edin!

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Parametre Verimli İnce Ayar (PEFT), önceden eğitilmiş büyük modelleri minimum hesaplama yükü ile yeni görevlere uyarlamak için tasarlanmış bir makine öğrenimi yaklaşımıdır. Sadece küçük bir parametre alt kümesine ince ayar yaparak, PEFT teknikleri ince ayar sürecini daha verimli hale getirir, kaynak gereksinimlerini azaltır ve önceden eğitilmiş modelde kodlanmış genel bilgiyi korur.

PEFT'in Önemi

Geleneksel ince ayar, bir modelin tüm parametrelerinin güncellenmesini içerir, bu da özellikle transformatör tabanlı mimariler gibi büyük modeller için hesaplama açısından pahalı ve bellek yoğun olabilir. PEFT, önceden eğitilmiş modelin çoğunluğunu değiştirmeden parametrelerin yalnızca bir kısmını değiştirerek bu sorunu ele alır. Bu yaklaşım özellikle hesaplama kaynakları sınırlı olduğunda veya her seferinde tüm modeli yeniden eğitmeden özelleştirme gerektiren birden fazla görevle uğraşırken faydalıdır.

PEFT teknikleri, yapay zekada kaynak verimli çözümlere yönelik artan taleple uyumludur ve sağlık, tarım ve perakende gibi çeşitli sektörlerde büyük modellerin pratik olarak uygulanmasını sağlar.

PEFT'te Temel Teknikler

Parametre-etkin ince ayar için çeşitli yaklaşımlar geliştirilmiştir:

  • Düşük Sıralı Adaptasyon (LoRA): LoRA, yeni görevlere uyum sağlamak için yalnızca bu ek parametreleri optimize ederek göreve özgü düşük sıralı güncellemeleri modele enjekte eder.
  • Adaptör Katmanları: Bunlar, göreve özgü ayarlamaları öğrenmek için modelin mimarisine, tipik olarak katmanlar arasına yerleştirilen küçük sinir ağı modülleridir.
  • Komut İstemi Ayarlama: Bu yöntem, model parametrelerini değiştirmeden bırakarak yalnızca modele beslenen giriş istemlerinin ayarlanmasını içerir. İstem Ayarlama hakkında daha fazla bilgi edinin.
  • Önek Ayarlama: Hızlı ayarlamaya benzer şekilde, önek ayarlama, giriş verilerine bir önek olarak hareket eden göreve özgü parametreler dizisini optimize eder.

Her yöntem, sonraki görevlerde güçlü performansı korurken eğitim süresini ve kaynak kullanımını azaltmayı amaçlamaktadır.

PEFT Uygulamaları

PEFT, özellikle kaynak kısıtlamaları veya görev çeşitliliğinin temel hususlar olduğu çok çeşitli yapay zeka ve makine öğrenimi alanlarında uygulama alanı bulmuştur.

Örnek 1: Doğal Dil İşleme (NLP)

NLP'de, PEFT teknikleri GPT-3 veya GPT-4 gibi büyük dil modellerini duygu analizi, özetleme veya alana özgü soru yanıtlama gibi belirli görevlere uyarlamak için yaygın olarak kullanılmaktadır. Örneğin, LoRA tıbbi metin analizi için GPT-3'e ince ayar yapmak üzere uygulanabilir ve hesaplama ihtiyaçlarını en aza indirirken doğru tahminler yapılmasını sağlar.

Örnek 2: Vision AI

Bilgisayarla görmede PEFT, aşağıdaki gibi önceden eğitilmiş modellere ince ayar yapmak için kullanılır Ultralytics YOLO Özel veri kümelerindeki nadir nesneleri tespit etmek gibi belirli görevler için. Modelin ağırlıklarının yalnızca küçük bir kısmına ince ayar yaparak kuruluşlar, kapsamlı bir yeniden eğitime gerek kalmadan vahşi yaşamı izleme veya endüstriyel kalite kontrol gibi görevler için özel çözümleri hızla uygulayabilir.

PEFT'in Faydaları

  1. Kaynak Verimliliği: Hesaplama ve bellek gereksinimlerini azaltarak uç cihazlarda veya sınırlı kaynaklara sahip ortamlarda dağıtım için erişilebilir hale getirir.
  2. Görev Esnekliği: Tüm modeli yeniden eğitmeden birden fazla aşağı akış görevine hızlı adaptasyonu kolaylaştırır, bu da özellikle sağlık ve üretim gibi sektörler için yararlıdır.
  3. Maliyet Etkinliği: Küçük bir parametre alt kümesine odaklanarak büyük modellerin ince ayar maliyetini düşürür.
  4. Genel Bilginin Korunması: Göreve özel uzmanlık eklerken önceden eğitilmiş modelin genel amaçlı yeteneklerini korur.

Geleneksel İnce Ayardan Farkları

Geleneksel ince ayarda, modelin tamamı güncellenir, bu da hesaplama açısından pahalı olabilir ve özellikle küçük veri kümelerinde aşırı uyuma eğilimli olabilir. Öte yandan PEFT, minimum sayıda parametreyi optimize etmeye odaklanır ve önemli ölçüde azaltılmış hesaplama ek yükü ile karşılaştırılabilir sonuçlar elde eder.

PEFT, önceden eğitilmiş bir modelin bazı veya tüm katmanları yeniden eğiterek yeni bir göreve uyarlandığı Transfer Öğrenmesinden de farklıdır. Transfer öğrenimi tam model yeniden eğitimini içerebilirken, PEFT açıkça parametre güncellemelerini en aza indirmek için tasarlanmıştır.

Gerçek Dünyadaki Etkiler

PEFT'in benimsenmesi, kaynakların kısıtlı olduğu ortamlarda yapay zeka çözümlerinin yaygınlaşmasını sağlamıştır. Örneğin, tarımda PEFT, düşük güçlü cihazlarda çalışırken mahsul hastalıklarını hassas bir şekilde tespit etmek için görüş modellerine ince ayar yapabilir. Benzer şekilde, sağlık hizmetlerinde PEFT, Ultralytics sağlık çözümlerinde vurgulandığı gibi, özel veri kümeleri kullanarak tümör tespiti gibi görevler için modellerin uyarlanmasını kolaylaştırır.

PEFT ayrıca, özel modellerin eğitimini ve dağıtımını basitleştiren Ultralytics HUB gibi araçlara da entegre edilerek kullanıcıların önceden eğitilmiş modelleri kendi benzersiz ihtiyaçlarına verimli bir şekilde uyarlayabilmelerini sağlar.

Sonuç

Parameter-Efficient Fine-Tuning (PEFT), yapay zekayı daha erişilebilir ve uyarlanabilir hale getirmede önemli bir adımdır. PEFT, büyük modellerin yeni görevlere verimli bir şekilde uyarlanmasını sağlayarak, endüstrilerin maliyetleri ve hesaplama taleplerini azaltırken yapay zekanın tüm potansiyelinden yararlanmalarını sağlar. NLP, bilgisayarla görme ve ötesini kapsayan uygulamalarıyla PEFT, yapay zeka teknolojilerinin ilerlemesinde önemli bir rol oynamaya devam ediyor.

Tümünü okuyun