Yolo Vision Shenzhen
Shenzhen
Şimdi katılın
Sözlük

Prompt Ayarlama

Tam yeniden eğitim yapmadan temel modelleri verimli bir şekilde uyarlamak için hızlı ayarlamayı keşfedin. YOLO26 gibi AI görevlerinde yumuşak komutların gecikmeyi ve depolama alanını nasıl azalttığını öğrenin.

Hızlı ayarlama, önceden eğitilmiş temel modelleri belirli alt görevlere uyumlaştırmak için kullanılan, tüm ağı yeniden eğitmenin hesaplama maliyetini gerektirmeyen, kaynak verimli bir tekniktir. Modelin tüm veya çoğu parametresini güncelleyen geleneksel ince ayarlamadan farklı olarak, prompt tuning önceden eğitilmiş model ağırlıklarını dondurur ve giriş verilerinin önüne eklenen "soft prompts" adı verilen küçük bir öğrenilebilir vektör kümesini optimize eder. Bu yaklaşım, tek bir büyük backbone birden fazla özel uygulamaya aynı anda hizmet vermesini sağlayarak depolama gereksinimlerini ve çıkarım gecikmesi geçiş maliyetlerini önemli ölçüde azaltır.

Hızlı Ayarlamanın Mekanizması

Standart makine öğrenimi (ML) iş akışlarında, metin veya görüntü gibi girdiler, gömme olarak bilinen sayısal temsillere dönüştürülür. Hızlı ayarlama, bu girdi dizisine ek, eğitilebilir gömme vektörleri ekler. Eğitim aşamasında, sistem geri yayılımı kullanarak gradyanları hesaplar, ancak optimizasyon algoritması yalnızca yumuşak istemlerin değerlerini günceller ve devasa model yapısını değiştirmez.

Bu yöntem, Parametre Verimli İnce Ayar (PEFT) adlı bir yöntemdir. Bu sürekli vektörleri öğrenerek, model istenen çıktıya "yönlendirilir". Bu kavram, Doğal Dil İşleme (NLP) alanında ortaya çıkmış olsa da, Bilgisayar Görme (CV) görevleri için de başarıyla uyarlanmıştır ve genellikle Görsel Uyarı Ayarı (VPT)

İlgili Kavramları Ayırt Etme

Hızlı ayarlamanın yararını anlamak için, bunu AI alanındaki benzer terimlerden ayırmak gerekir:

  • Prompt Mühendisliği: Bu , üretken bir AI modelini yönlendirmek için insan tarafından okunabilir metin talimatlarının (sert promptlar) manuel olarak oluşturulmasını içerir. Kodlama veya eğitim gerektirmez. Prompt ayarlama ise, doğal dil kelimelerine karşılık gelmeyebilecek optimal sayısal gömülü değerleri bulmak için otomatik denetimli öğrenmeyi kullanır.
  • Tam İnce Ayar: Geleneksel yöntemler tüm sinir ağını günceller, bu da genellikle orijinal eğitimin "felaketle sonuçlanan unutulmasına" yol açar. Hızlı ayar, modelin orijinal yeteneklerini korur ve farklı görevler arasında transfer öğreniminden yararlanmayı kolaylaştırır. .
  • Az Atışlı Öğrenme: Bu genellikle bir LLM'nin bağlam penceresinde birkaç örnek sunmayı ifade eder. Prompt ayarlama, yalnızca geçici bağlam sağlamak yerine, kaydedilen ve yeniden kullanılan parametreleri kalıcı olarak öğrendiği için farklıdır. Bu, genellikle bir modelin bağlamı anlamak için çok fazla veriye ihtiyaç duymadan, daha az bağlamla daha iyi sonuçlar elde etmesini sağlar.

Gerçek Dünya Uygulamaları

Hızlı ayarlama, kaynakların sınırlı olduğu ortamlarda yapay zekanın ölçeklenebilir bir şekilde uygulanmasını sağlar. Bu, model yönetimi için Ultralytics 'nun temel felsefesidir. Ultralytics .

  1. Çok Dilli Müşteri Desteği: Küresel bir işletme, tek bir merkezi, sabit dil modeli kullanabilir. İspanyolca, Japonca ve Almanca için hafif yazılım komutları eğiterek, sistem anında dil değiştirebilir. Bu, üç ayrı gigabayt boyutunda modeli barındırmanın büyük maliyetini ortadan kaldırır ve bunun yerine kilobayt boyutunda komut dosyalarına dayanır.
  2. Sağlık Hizmetlerinde Yapay Zeka: Tıbbi görüntüleme genellikle veri kıtlığından muzdariptir. Araştırmacılar, genel amaçlı bir görme backbone Vision Transformer gibi) alıp, prompt tuning kullanarak bunu retina hastalıkları veya tümörler gibi belirli anomalileri tespit etmek için uyarlayabilirler. Bu, hasta verilerinin gizliliğini korur ve tam model yeniden eğitimi olmadan yeni tıbbi ekipmana hızlı adaptasyon sağlar.

Uygulama Örneği

Aşağıdaki PyTorch örneği, temel mekanik kavramı göstermektedir: bir modelin ana katmanlarını dondurmak ve çıktıyı etkilemek için optimize edilmiş ayrı, eğitilebilir bir parametre ("yumuşak komut") oluşturmak.

import torch
import torch.nn as nn

# 1. Define a dummy backbone (e.g., a pre-trained layer)
backbone = nn.Linear(10, 5)

# 2. Freeze the backbone weights (crucial for prompt tuning)
for param in backbone.parameters():
    param.requires_grad = False

# 3. Create a 'soft prompt' vector that IS trainable
# This represents the learnable embeddings prepended to inputs
soft_prompt = nn.Parameter(torch.randn(1, 10), requires_grad=True)

# 4. Initialize an optimizer that targets ONLY the soft prompt
optimizer = torch.optim.SGD([soft_prompt], lr=0.1)

# Verify that only the prompt is being trained
trainable_params = sum(p.numel() for p in [soft_prompt] if p.requires_grad)
print(f"Optimizing {trainable_params} parameters (Soft Prompt only)")

Modern Kenar Yapay Zeka ile İlgisi

Modeller büyüdükçe, bunları ucuza uyarlama yeteneği kritik hale geliyor. YOLO26 gibi mimariler verimlilik açısından zaten oldukça optimize edilmiş olsa da, omurgaları dondurma ve verimli uyarlama ilkeleri, Edge AI'nın geleceği için temel önemdedir. Hızlı ayarlama gibi teknikler, sınırlı belleğe sahip cihazların, büyük sinir ağlarını yeniden yüklemek yerine, küçük yapılandırma dosyalarını değiştirmek suretiyle, nesne algılamadan segmentasyona kadar çeşitli görevleri yerine getirmesine olanak tanır.

Verimli bir şekilde eğitim ve dağıtım yapmak isteyen geliştiriciler için, Ultralytics gibi araçların kullanılması, modellerin modern MLOps'un en iyi uygulamalarından yararlanarak belirli donanım hedefleri için optimize edilmesini sağlar.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın