Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

ضبط الموجه

استكشف ضبط المطالبات لتكييف النماذج الأساسية بكفاءة دون الحاجة إلى إعادة تدريب كاملة. تعرف على كيفية تقليل المطالبات الناعمة للكمون والتخزين لمهام الذكاء الاصطناعي مثل YOLO26.

يعد الضبط الفوري تقنية فعالة من حيث الموارد تُستخدم لتكييف نماذج الأساس المدربة مسبقًا مع مهام محددة دون الحاجة إلى إعادة تدريب الشبكة بأكملها، مما يوفر تكاليف الحوسبة. على عكس الضبط الدقيق التقليدي، الذي يقوم بتحديث جميع أو معظم معلمات النموذج، فإن الضبط الفوري يجمد أوزان النموذج المدرب مسبقًا ويقوم بتحسين مجموعة صغيرة فقط من المتجهات القابلة للتعلم — تسمى "المطالبات الناعمة" — التي يتم إضافتها إلى بيانات الإدخال. يتيح هذا النهج لعمود فقري واحد ضخم أن يخدم العديد من التطبيقات المتخصصة في وقت واحد، مما يقلل بشكل كبير من متطلبات التخزين وتكاليف تبديل زمن انتقال الاستدلال.

آليات الضبط الفوري

في سير عمل التعلم الآلي (ML) القياسي، يتم تحويل المدخلات مثل النصوص أو الصور إلى تمثيلات رقمية تُعرف باسم التضمينات. يقوم ضبط المطالبات بإدراج متجهات تضمين إضافية قابلة للتدريب في تسلسل المدخلات هذا. خلال مرحلة التدريب، يستخدم النظام الانتشار العكسي لحساب التدرجات، ولكن خوارزمية التحسين تقوم فقط بتحديث قيم المطالبات الناعمة، تاركة بنية النموذج الضخمة دون تغيير.

هذه الطريقة هي شكل من أشكال الضبط الدقيق الفعال للمعلمات (PEFT). من خلال تعلم هذه المتجهات المستمرة، يتم "توجيه" النموذج نحو الناتج المطلوب. على الرغم من أن هذا المفهوم نشأ في معالجة اللغة الطبيعية (NLP)، إلا أنه تم تكييفه بنجاح لمهام الرؤية الحاسوبية (CV) ، والتي يشار إليها غالبًا باسم الضبط البصري السريع (VPT).

التمييز بين المفاهيم ذات الصلة

لفهم فائدة الضبط الفوري، من الضروري تمييزه عن المصطلحات المماثلة في مجال الذكاء الاصطناعي :

  • الهندسة السريعة: يتضمن ذلك صياغة تعليمات نصية يمكن قراءتها يدويًا (مطالبات صعبة) لتوجيه نموذج الذكاء الاصطناعي التوليدي. ولا يتطلب ذلك أي ترميز أو تدريب. على العكس من ذلك، يستخدم ضبط المطالبات التعلم الآلي الخاضع للإشراف للعثور على التضمينات الرقمية المثلى التي قد لا تتوافق مع كلمات اللغة الطبيعية.
  • الضبط الدقيق الكامل: تقوم الطرق التقليدية بتحديث الشبكة العصبية بأكملها، مما يؤدي غالبًا إلى "نسيان كارثي" للتدريب الأصلي. يحافظ الضبط السريع على القدرات الأصلية للنموذج، مما يسهل الاستفادة من التعلم النقلي عبر المهام المنفصلة.
  • التعلم من خلال عدد قليل من الأمثلة: يشير هذا عادةً إلى تقديم عدد قليل من الأمثلة في نافذة السياق الخاصة بـ LLM. يعد ضبط المطالبات أمرًا مميزًا لأنه يتعلم بشكل دائم المعلمات التي يتم حفظها وإعادة استخدامها، بدلاً من مجرد توفير سياق مؤقت.

تطبيقات واقعية

يتيح الضبط الفوري نشر الذكاء الاصطناعي بشكل قابل للتطوير في البيئات المحدودة الموارد، وهي فلسفة أساسية تشترك فيها Ultralytics لإدارة النماذج.

  1. دعم العملاء متعدد اللغات: يمكن للمؤسسة العالمية استخدام نموذج لغة مركزي ثابت. من خلال تدريب المطالبات البسيطة للغة الإسبانية واليابانية والألمانية، يمكن للنظام التبديل بين اللغات على الفور. وهذا يتجنب التكلفة الهائلة لاستضافة ثلاثة نماذج منفصلة بحجم جيجابايت، معتمدا بدلا من ذلك على ملفات مطالبات بحجم كيلوبايت .
  2. الذكاء الاصطناعي في الرعاية الصحية: غالبًا ما تعاني التصوير الطبي من ندرة البيانات. يمكن للباحثين استخدام أساس رؤية عام الغرض (مثل Vision Transformer) واستخدام الضبط السريع لتكييفه لاكتشاف حالات شاذة محددة، مثل أمراض الشبكية أو الأورام. وهذا يحافظ على خصوصية بيانات المرضى ويسمح بالتكيف السريع مع المعدات الطبية الجديدة دون إعادة تدريب النموذج بالكامل.

مثال على التنفيذ

ما يلي PyTorch المثال التالي المفهوم الميكانيكي الأساسي: تجميد الطبقات الرئيسية للنموذج وإنشاء معلمة منفصلة قابلة للتدريب (الـ"soft prompt") يتم تحسينها للتأثير على الناتج.

import torch
import torch.nn as nn

# 1. Define a dummy backbone (e.g., a pre-trained layer)
backbone = nn.Linear(10, 5)

# 2. Freeze the backbone weights (crucial for prompt tuning)
for param in backbone.parameters():
    param.requires_grad = False

# 3. Create a 'soft prompt' vector that IS trainable
# This represents the learnable embeddings prepended to inputs
soft_prompt = nn.Parameter(torch.randn(1, 10), requires_grad=True)

# 4. Initialize an optimizer that targets ONLY the soft prompt
optimizer = torch.optim.SGD([soft_prompt], lr=0.1)

# Verify that only the prompt is being trained
trainable_params = sum(p.numel() for p in [soft_prompt] if p.requires_grad)
print(f"Optimizing {trainable_params} parameters (Soft Prompt only)")

أهميتها بالنسبة للذكاء الاصطناعي الحديث

مع تزايد حجم النماذج، تصبح القدرة على تكييفها بتكلفة منخفضة أمراً بالغ الأهمية. في حين أن البنى مثل YOLO26 قد تم تحسينها بالفعل لتحقيق أعلى مستويات الكفاءة، فإن مبادئ تجميد البنية الأساسية والتكييف الفعال تعتبر أساسية لمستقبل الذكاء الاصطناعي الطرفي. تسمح التقنيات المشابهة لضبط الاستجابة السريعة للأجهزة ذات الذاكرة المحدودة بأداء مهام متنوعة — من اكتشاف الأجسام إلى التجزئة — ببساطة عن طريق تبديل ملفات التكوين الصغيرة بدلاً من إعادة تحميل الشبكات العصبية الضخمة.

بالنسبة للمطورين الذين يسعون إلى التدريب والنشر بكفاءة، فإن استخدام أدوات مثل Ultralytics يضمن تحسين النماذج لأهداف الأجهزة المحددة الخاصة بهم، بالاستفادة من أفضل ممارسات MLOps الحديثة.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن