Tam yeniden eğitim yapmadan temel modelleri verimli bir şekilde uyarlamak için hızlı ayarlamayı keşfedin. YOLO26 gibi AI görevlerinde yumuşak komutların gecikmeyi ve depolama alanını nasıl azalttığını öğrenin.
Hızlı ayarlama, önceden eğitilmiş temel modelleri belirli alt görevlere uyumlaştırmak için kullanılan, tüm ağı yeniden eğitmenin hesaplama maliyetini gerektirmeyen, kaynak verimli bir tekniktir. Modelin tüm veya çoğu parametresini güncelleyen geleneksel ince ayarlamadan farklı olarak, prompt tuning önceden eğitilmiş model ağırlıklarını dondurur ve giriş verilerinin önüne eklenen "soft prompts" adı verilen küçük bir öğrenilebilir vektör kümesini optimize eder. Bu yaklaşım, tek bir büyük backbone birden fazla özel uygulamaya aynı anda hizmet vermesini sağlayarak depolama gereksinimlerini ve çıkarım gecikmesi geçiş maliyetlerini önemli ölçüde azaltır.
Standart makine öğrenimi (ML) iş akışlarında, metin veya görüntü gibi girdiler, gömme olarak bilinen sayısal temsillere dönüştürülür. Hızlı ayarlama, bu girdi dizisine ek, eğitilebilir gömme vektörleri ekler. Eğitim aşamasında, sistem geri yayılımı kullanarak gradyanları hesaplar, ancak optimizasyon algoritması yalnızca yumuşak istemlerin değerlerini günceller ve devasa model yapısını değiştirmez.
Bu yöntem, Parametre Verimli İnce Ayar (PEFT) adlı bir yöntemdir. Bu sürekli vektörleri öğrenerek, model istenen çıktıya "yönlendirilir". Bu kavram, Doğal Dil İşleme (NLP) alanında ortaya çıkmış olsa da, Bilgisayar Görme (CV) görevleri için de başarıyla uyarlanmıştır ve genellikle Görsel Uyarı Ayarı (VPT)
Hızlı ayarlamanın yararını anlamak için, bunu AI alanındaki benzer terimlerden ayırmak gerekir:
Hızlı ayarlama, kaynakların sınırlı olduğu ortamlarda yapay zekanın ölçeklenebilir bir şekilde uygulanmasını sağlar. Bu, model yönetimi için Ultralytics 'nun temel felsefesidir. Ultralytics .
Aşağıdaki PyTorch örneği, temel mekanik kavramı göstermektedir: bir modelin ana katmanlarını dondurmak ve çıktıyı etkilemek için optimize edilmiş ayrı, eğitilebilir bir parametre ("yumuşak komut") oluşturmak.
import torch
import torch.nn as nn
# 1. Define a dummy backbone (e.g., a pre-trained layer)
backbone = nn.Linear(10, 5)
# 2. Freeze the backbone weights (crucial for prompt tuning)
for param in backbone.parameters():
param.requires_grad = False
# 3. Create a 'soft prompt' vector that IS trainable
# This represents the learnable embeddings prepended to inputs
soft_prompt = nn.Parameter(torch.randn(1, 10), requires_grad=True)
# 4. Initialize an optimizer that targets ONLY the soft prompt
optimizer = torch.optim.SGD([soft_prompt], lr=0.1)
# Verify that only the prompt is being trained
trainable_params = sum(p.numel() for p in [soft_prompt] if p.requires_grad)
print(f"Optimizing {trainable_params} parameters (Soft Prompt only)")
Modeller büyüdükçe, bunları ucuza uyarlama yeteneği kritik hale geliyor. YOLO26 gibi mimariler verimlilik açısından zaten oldukça optimize edilmiş olsa da, omurgaları dondurma ve verimli uyarlama ilkeleri, Edge AI'nın geleceği için temel önemdedir. Hızlı ayarlama gibi teknikler, sınırlı belleğe sahip cihazların, büyük sinir ağlarını yeniden yüklemek yerine, küçük yapılandırma dosyalarını değiştirmek suretiyle, nesne algılamadan segmentasyona kadar çeşitli görevleri yerine getirmesine olanak tanır.
Verimli bir şekilde eğitim ve dağıtım yapmak isteyen geliştiriciler için, Ultralytics gibi araçların kullanılması, modellerin modern MLOps'un en iyi uygulamalarından yararlanarak belirli donanım hedefleri için optimize edilmesini sağlar.