استكشف ضبط المطالبات لتكييف النماذج الأساسية بكفاءة دون الحاجة إلى إعادة تدريب كاملة. تعرف على كيفية تقليل المطالبات الناعمة للكمون والتخزين لمهام الذكاء الاصطناعي مثل YOLO26.
يعد الضبط الفوري تقنية فعالة من حيث الموارد تُستخدم لتكييف نماذج الأساس المدربة مسبقًا مع مهام محددة دون الحاجة إلى إعادة تدريب الشبكة بأكملها، مما يوفر تكاليف الحوسبة. على عكس الضبط الدقيق التقليدي، الذي يقوم بتحديث جميع أو معظم معلمات النموذج، فإن الضبط الفوري يجمد أوزان النموذج المدرب مسبقًا ويقوم بتحسين مجموعة صغيرة فقط من المتجهات القابلة للتعلم — تسمى "المطالبات الناعمة" — التي يتم إضافتها إلى بيانات الإدخال. يتيح هذا النهج لعمود فقري واحد ضخم أن يخدم العديد من التطبيقات المتخصصة في وقت واحد، مما يقلل بشكل كبير من متطلبات التخزين وتكاليف تبديل زمن انتقال الاستدلال.
في سير عمل التعلم الآلي (ML) القياسي، يتم تحويل المدخلات مثل النصوص أو الصور إلى تمثيلات رقمية تُعرف باسم التضمينات. يقوم ضبط المطالبات بإدراج متجهات تضمين إضافية قابلة للتدريب في تسلسل المدخلات هذا. خلال مرحلة التدريب، يستخدم النظام الانتشار العكسي لحساب التدرجات، ولكن خوارزمية التحسين تقوم فقط بتحديث قيم المطالبات الناعمة، تاركة بنية النموذج الضخمة دون تغيير.
هذه الطريقة هي شكل من أشكال الضبط الدقيق الفعال للمعلمات (PEFT). من خلال تعلم هذه المتجهات المستمرة، يتم "توجيه" النموذج نحو الناتج المطلوب. على الرغم من أن هذا المفهوم نشأ في معالجة اللغة الطبيعية (NLP)، إلا أنه تم تكييفه بنجاح لمهام الرؤية الحاسوبية (CV) ، والتي يشار إليها غالبًا باسم الضبط البصري السريع (VPT).
لفهم فائدة الضبط الفوري، من الضروري تمييزه عن المصطلحات المماثلة في مجال الذكاء الاصطناعي :
يتيح الضبط الفوري نشر الذكاء الاصطناعي بشكل قابل للتطوير في البيئات المحدودة الموارد، وهي فلسفة أساسية تشترك فيها Ultralytics لإدارة النماذج.
ما يلي PyTorch المثال التالي المفهوم الميكانيكي الأساسي: تجميد الطبقات الرئيسية للنموذج وإنشاء معلمة منفصلة قابلة للتدريب (الـ"soft prompt") يتم تحسينها للتأثير على الناتج.
import torch
import torch.nn as nn
# 1. Define a dummy backbone (e.g., a pre-trained layer)
backbone = nn.Linear(10, 5)
# 2. Freeze the backbone weights (crucial for prompt tuning)
for param in backbone.parameters():
param.requires_grad = False
# 3. Create a 'soft prompt' vector that IS trainable
# This represents the learnable embeddings prepended to inputs
soft_prompt = nn.Parameter(torch.randn(1, 10), requires_grad=True)
# 4. Initialize an optimizer that targets ONLY the soft prompt
optimizer = torch.optim.SGD([soft_prompt], lr=0.1)
# Verify that only the prompt is being trained
trainable_params = sum(p.numel() for p in [soft_prompt] if p.requires_grad)
print(f"Optimizing {trainable_params} parameters (Soft Prompt only)")
مع تزايد حجم النماذج، تصبح القدرة على تكييفها بتكلفة منخفضة أمراً بالغ الأهمية. في حين أن البنى مثل YOLO26 قد تم تحسينها بالفعل لتحقيق أعلى مستويات الكفاءة، فإن مبادئ تجميد البنية الأساسية والتكييف الفعال تعتبر أساسية لمستقبل الذكاء الاصطناعي الطرفي. تسمح التقنيات المشابهة لضبط الاستجابة السريعة للأجهزة ذات الذاكرة المحدودة بأداء مهام متنوعة — من اكتشاف الأجسام إلى التجزئة — ببساطة عن طريق تبديل ملفات التكوين الصغيرة بدلاً من إعادة تحميل الشبكات العصبية الضخمة.
بالنسبة للمطورين الذين يسعون إلى التدريب والنشر بكفاءة، فإن استخدام أدوات مثل Ultralytics يضمن تحسين النماذج لأهداف الأجهزة المحددة الخاصة بهم، بالاستفادة من أفضل ممارسات MLOps الحديثة.