تعرف على ماهية العصر في التعلم الآلي وكيف يؤثر على تدريب النماذج. استكشف التحسين، وتجنب الإفراط في الملاءمة، وقم بتدريب Ultralytics بسهولة.
تمثل الحقبة دورة كاملة عبر مجموعة بيانات التدريب بأكملها بواسطة خوارزمية التعلم الآلي. خلال هذه العملية، تتاح للنموذج فرصة تحديث معلماته الداخلية استنادًا إلى كل عينة في البيانات مرة واحدة فقط. في سياق التعلم العميق، نادرًا ما يكون المرور الواحد كافيًا للشبكة العصبية لتعلم الأنماط المعقدة بشكل فعال. لذلك، يتضمن التدريب عادةً عدة عصور، مما يسمح لخوارزمية التعلم بتكرار تحسين فهمها وتقليل الخطأ بين تنبؤاتها والحقيقة الفعلية.
الهدف الأساسي من التدريب هو تعديل أوزان النموذج لتقليل وظيفة الخسارة المحددة. تستخدم خوارزميات التحسين، مثل الانحدار العشوائي التدرجي (SGD) أو Adam الخطأ المحسوب خلال كل حقبة لتوجيه هذه التعديلات. مع زيادة عدد الحقب، ينتقل النموذج عمومًا من حالة الخطأ العالي (التخمين العشوائي) إلى الخطأ المنخفض (الأنماط المكتسبة).
ومع ذلك، فإن اختيار العدد الصحيح من العصور هو جانب حاسم في ضبط المعلمات الفائقة.
من الشائع أن يخلط المبتدئون بين مصطلح "حقبة" والمصطلحات ذات الصلة. فهم التسلسل الهرمي لهذه المفاهيم أمر ضروري لتكوين حلقات التدريب بشكل صحيح:
يختلف عدد الحقب المطلوبة بشكل كبير اعتمادًا على مدى تعقيد المهمة وحجم البيانات.
عند استخدام أطر عمل حديثة مثل Ultralytics YOLO، فإن تحديد عدد الفترات الزمنية هو أمر بسيط في أمر التدريب. يمكن لأدوات مثل Ultralytics أن تساعد في تصور منحنيات الخسارة خلال كل فترة زمنية لتحديد نقطة التوقف المثلى.
يوضح المثال التالي كيفية تعيين عدد العصور عند تدريب نموذج YOLO26:
from ultralytics import YOLO
# Load the YOLO26n model (nano version for speed)
model = YOLO("yolo26n.pt")
# Train the model for 50 epochs
# The 'epochs' argument determines how many times the model sees the entire dataset
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)
في هذا المقتطف، فإن epochs=50 يوجه الحجة محرك التدريب إلى تكرار
coco8.yaml مجموعة البيانات 50 مرة مختلفة. خلال كل دورة، يقوم النموذج بما يلي
الانتشار الأمامي و
الانتشار الخلفي لتحسين قدراتها على الكشف
.