Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

دالة الخسارة

اكتشف كيف توجه وظيفة الخسارة تدريب النموذج. تعلم كيفية تقليل الأخطاء في مهام مثل اكتشاف الكائنات باستخدام Ultralytics وتحسين أداء الذكاء الاصطناعي.

تُستخدم دالة الخسارة كبوصلة رياضية توجه تدريب الشبكات العصبية الاصطناعية وخوارزميات التعلم الآلي الأخرى . بشكل أساسي، تقوم بتحديد مقدار الخطأ بين النتائج المتوقعة للنموذج وعلامات "الحقيقة الأساسية" الفعلية الموجودة في بيانات التدريب. يمكنك تصورها كنظام تسجيل حيث تشير النتيجة الأقل إلى أداء متفوق. خلال عملية التدريب، يتمثل الهدف الأساسي في تقليل قيمة الخسارة هذه بشكل متكرر. يتيح هذا التقليل للنموذج ضبط معلماته الداخلية لمواءمة تنبؤاته بشكل أوثق مع الواقع، وهي عملية مدفوعة بخوارزمية تحسين مثل Adam Stochastic Gradient Descent (SGD).

دور الخسارة في تدريب النموذج

تعتمد آلية التعلم في الذكاء الاصطناعي بشكل كبير على حلقة التغذية الراجعة الناتجة عن دالة الخسارة. بعد أن يقوم النموذج بمعالجة مجموعة من البيانات، تحسب دالة الخسارة قيمة خطأ رقمية تمثل المسافة بين التنبؤ والهدف. من خلال تقنية تسمى الانتشار العكسي، يحسب النظام التدرج الخسارة فيما يتعلق بكل من أوزان النموذج. تعمل هذه التدرجات كخريطة، تشير إلى اتجاه وحجم التعديلات اللازمة لتقليل الخطأ. ثم يتحكم معدل التعلم في حجم الخطوات التي يتم اتخاذها أثناء هذه التحديثات، مما يضمن تقارب النموذج على الحل الأمثل دون تجاوزه.

تتطلب مهام التعلم الآلي المختلفة أنواعًا محددة من دوال الخسارة. بالنسبة لتحليل الانحدار الذي يهدف إلى توقع قيم مستمرة مثل أسعار المساكن، فإن متوسط الخطأ المربع (MSE) هو الخيار القياسي. على العكس من ذلك، بالنسبة لمهام تصنيف الصور التي تتضمن بيانات تصنيفية، يُستخدم عادةً خسارة الانتروبيا المتقاطعة لقياس الاختلاف بين الاحتمالات المتوقعة والفئة الحقيقية. تستخدم نماذج الكشف المتقدمة عن الكائنات ، مثل YOLO26، وظائف خسارة مركبة تعمل على تحسين أهداف متعددة في وقت واحد، وتجمع بين مقاييس مثل التقاطع فوق الاتحاد (IoU) من أجل التوطين وصيغ متخصصة مثل خسارة بؤرة التوزيع (DFL) أو خسارة البؤرة المتغيرة من أجل ثقة الفئة.

تطبيقات واقعية

وظائف الخسارة هي المحرك وراء موثوقية كل تطبيق تقريبًا للذكاء الاصطناعي، مما يضمن أن الأنظمة يمكن أن تعمل بأمان في بيئات معقدة.

  • القيادة الذاتية: في مجال المركبات الذاتية القيادة، تعتمد السلامة على الدقة في الإدراك. تساعد وظيفة الخسارة المضبوطة بعناية النظام على التمييز بين المشاة والسيارات الأخرى والعوائق الثابتة . من خلال تقليل أخطاء تحديد الموقع أثناء التدريب على مجموعات البيانات مثل nuScenes أو KITTI، تتعلم المركبة توقع الموقع الدقيق للأجسام، وهو أمر حيوي لتجنب الاصطدامات في الذكاء الاصطناعي في حلول السيارات.
  • التشخيص الطبي: في تحليل الصور الطبية، غالبًا ما يتطلب تحديد الأمراض فصل الشذوذات الصغيرة عن الأنسجة السليمة. تُستخدم وظائف متخصصة مثل Dice Loss في مهام الفصل، مثل الكشف عن الأورام في فحوصات التصوير بالرنين المغناطيسي. تتعامل هذه الوظائف مع عدم التوازن بين الفئات عن طريق معاقبة النموذج بشدة لعدم اكتشافه المنطقة الصغيرة محل الاهتمام، وبالتالي تحسين حساسية الذكاء الاصطناعي في أدوات الرعاية الصحية.

Python : حساب خسارة التقاطع الانتروبي

بينما تتعامل الأطر عالية المستوى مثل Ultralytics مع حساب الخسارة تلقائيًا أثناء التدريب، فإن فهم الرياضيات الأساسية مفيد في تصحيح الأخطاء. يستخدم المثال التالي PyTorch— الخلفية Ultralytics — لحساب الخسارة بين التنبؤ والهدف.

import torch
import torch.nn as nn

# Define the loss function (CrossEntropyLoss includes Softmax)
loss_fn = nn.CrossEntropyLoss()

# Mock model output (logits) for 3 classes and the true class (Class 0)
# A high score for index 0 indicates a correct prediction
predictions = torch.tensor([[2.5, 0.1, -1.2]])
ground_truth = torch.tensor([0])

# Calculate the numerical loss value
loss = loss_fn(predictions, ground_truth)
print(f"Calculated Loss: {loss.item():.4f}")

التفريق بين المفاهيم ذات الصلة

من المهم التمييز بين دالة الخسارة والمقاييس الأخرى المستخدمة في مسار التعلم الآلي.

  • وظيفة الخسارة مقابل مقاييس التقييم: وظيفة الخسارة قابلة للتفاضل وتستخدم أثناء التدريب لتحديث الأوزان. في المقابل، تستخدم مقاييس التقييم مثل الدقة، والدقة، و متوسط الدقة (mAP) بعد التدريب لتقييم الأداء بمصطلحات يمكن للإنسان فهمها. قد يقلل النموذج من الخسارة بشكل فعال ولكنه لا يزال يعاني من ضعف الدقة إذا كانت وظيفة الخسارة لا ترتبط بشكل مثالي بالهدف في العالم الحقيقي.
  • وظيفة الخسارة مقابل التنظيم: بينما توجه وظيفة الخسارة النموذج نحو التنبؤ الصحيح ، تضاف تقنيات التنظيم (مثل عقوبات L1 أو L2) إلى معادلة الخسارة لمنع التكيف المفرط. يثبط التنظيم النماذج المعقدة للغاية عن طريق معاقبة الأوزان الكبيرة، مما يساعد النظام على التعميم بشكل أفضل على بيانات الاختبار غير المرئية .
  • وظيفة الخسارة مقابل وظيفة المكافأة: في التعلم المعزز، يتعلم الوكيل عن طريق تعظيم "المكافأة" التراكمية بدلاً من تقليل الخسارة. على الرغم من أنهما متعاكسان من الناحية النظرية، إلا أن كلاهما يعمل كوظيفة موضوعية تدفع عملية التحسين.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن