اكتشف كيف توجه وظيفة الخسارة تدريب النموذج. تعلم كيفية تقليل الأخطاء في مهام مثل اكتشاف الكائنات باستخدام Ultralytics وتحسين أداء الذكاء الاصطناعي.
تُستخدم دالة الخسارة كبوصلة رياضية توجه تدريب الشبكات العصبية الاصطناعية وخوارزميات التعلم الآلي الأخرى . بشكل أساسي، تقوم بتحديد مقدار الخطأ بين النتائج المتوقعة للنموذج وعلامات "الحقيقة الأساسية" الفعلية الموجودة في بيانات التدريب. يمكنك تصورها كنظام تسجيل حيث تشير النتيجة الأقل إلى أداء متفوق. خلال عملية التدريب، يتمثل الهدف الأساسي في تقليل قيمة الخسارة هذه بشكل متكرر. يتيح هذا التقليل للنموذج ضبط معلماته الداخلية لمواءمة تنبؤاته بشكل أوثق مع الواقع، وهي عملية مدفوعة بخوارزمية تحسين مثل Adam Stochastic Gradient Descent (SGD).
تعتمد آلية التعلم في الذكاء الاصطناعي بشكل كبير على حلقة التغذية الراجعة الناتجة عن دالة الخسارة. بعد أن يقوم النموذج بمعالجة مجموعة من البيانات، تحسب دالة الخسارة قيمة خطأ رقمية تمثل المسافة بين التنبؤ والهدف. من خلال تقنية تسمى الانتشار العكسي، يحسب النظام التدرج الخسارة فيما يتعلق بكل من أوزان النموذج. تعمل هذه التدرجات كخريطة، تشير إلى اتجاه وحجم التعديلات اللازمة لتقليل الخطأ. ثم يتحكم معدل التعلم في حجم الخطوات التي يتم اتخاذها أثناء هذه التحديثات، مما يضمن تقارب النموذج على الحل الأمثل دون تجاوزه.
تتطلب مهام التعلم الآلي المختلفة أنواعًا محددة من دوال الخسارة. بالنسبة لتحليل الانحدار الذي يهدف إلى توقع قيم مستمرة مثل أسعار المساكن، فإن متوسط الخطأ المربع (MSE) هو الخيار القياسي. على العكس من ذلك، بالنسبة لمهام تصنيف الصور التي تتضمن بيانات تصنيفية، يُستخدم عادةً خسارة الانتروبيا المتقاطعة لقياس الاختلاف بين الاحتمالات المتوقعة والفئة الحقيقية. تستخدم نماذج الكشف المتقدمة عن الكائنات ، مثل YOLO26، وظائف خسارة مركبة تعمل على تحسين أهداف متعددة في وقت واحد، وتجمع بين مقاييس مثل التقاطع فوق الاتحاد (IoU) من أجل التوطين وصيغ متخصصة مثل خسارة بؤرة التوزيع (DFL) أو خسارة البؤرة المتغيرة من أجل ثقة الفئة.
وظائف الخسارة هي المحرك وراء موثوقية كل تطبيق تقريبًا للذكاء الاصطناعي، مما يضمن أن الأنظمة يمكن أن تعمل بأمان في بيئات معقدة.
بينما تتعامل الأطر عالية المستوى مثل Ultralytics مع حساب الخسارة تلقائيًا أثناء التدريب، فإن فهم الرياضيات الأساسية مفيد في تصحيح الأخطاء. يستخدم المثال التالي PyTorch— الخلفية Ultralytics — لحساب الخسارة بين التنبؤ والهدف.
import torch
import torch.nn as nn
# Define the loss function (CrossEntropyLoss includes Softmax)
loss_fn = nn.CrossEntropyLoss()
# Mock model output (logits) for 3 classes and the true class (Class 0)
# A high score for index 0 indicates a correct prediction
predictions = torch.tensor([[2.5, 0.1, -1.2]])
ground_truth = torch.tensor([0])
# Calculate the numerical loss value
loss = loss_fn(predictions, ground_truth)
print(f"Calculated Loss: {loss.item():.4f}")
من المهم التمييز بين دالة الخسارة والمقاييس الأخرى المستخدمة في مسار التعلم الآلي.