مسرد المصطلحات

الإفراط في التركيب

تعرّف على كيفية تحديد ومنع ومعالجة الإفراط في التعلّم الآلي. اكتشف تقنيات تحسين تعميم النموذج والأداء في العالم الحقيقي.

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

يحدث الإفراط في التعميم في التعلّم الآلي (ML) عندما يتعلم النموذج بيانات التدريب بشكل جيد للغاية، حيث يلتقط الضوضاء والتقلبات العشوائية بدلاً من النمط الأساسي. يؤدي ذلك إلى أداء ممتاز على مجموعة بيانات التدريب ولكن التعميم الضعيف على البيانات الجديدة غير المرئية. وبشكلٍ أساسي، يصبح النموذج معقدًا للغاية ومُصممًا خصيصًا لأمثلة التدريب، وهو ما يشبه حفظ الإجابات بدلاً من فهم المفاهيم. إنه تحدٍ شائع عند تدريب نماذج الذكاء الاصطناعي، خاصةً مع الخوارزميات المعقدة مثل الشبكات العصبية المستخدمة في Ultralytics YOLO لمهام مثل اكتشاف الأجسام وتجزئة الصور.

فهم الملاءمة المفرطة

ينشأ الإفراط في التركيب لأن نماذج التعلم الآلي تهدف إلى تقليل الأخطاء في بيانات التدريب. إذا كان النموذج يمتلك تعقيدًا مفرطًا (على سبيل المثال، الكثير من المعلمات أو الطبقات في نموذج التعلّم العميق )، فيمكن أن يتناسب حتى مع الضوضاء العشوائية الموجودة في مجموعة التدريب. هذه الضوضاء لا تمثل الأنماط الأساسية الحقيقية ومن غير المرجح أن تكون موجودة في مجموعات البيانات الجديدة. تخيل تصميم بدلة تتناسب تماماً مع القياسات الدقيقة لشخص ما في يوم محدد - قد لا تتناسب بشكل جيد إذا تذبذب وزنه قليلاً أو إذا جربها شخص آخر. في التعلم الآلي، يؤدي هذا "الملاءمة المثالية" لبيانات التدريب إلى عدم المرونة وضعف الأداء على بيانات العالم الحقيقي، وغالبًا ما يشار إلى ذلك بالتعميم الضعيف.

المشكلة المعاكسة هي مشكلة عدم الملاءمة الناقصة، حيث يكون النموذج بسيطًا للغاية بحيث لا يستطيع التقاط البنية الأساسية للبيانات. يكون أداء النموذج غير الملائم ضعيفًا على كل من بيانات التدريب والبيانات الجديدة لأنه لم يتعلم ما يكفي. الهدف هو إيجاد توازن أمثل، وغالبًا ما تتم مناقشته في سياق المفاضلة بين التحيز والتباين، مما يخلق نموذجًا يعمم بشكل جيد على البيانات غير المرئية. التباين المرتفع هو سمة من سمات الإفراط في التناسب، بينما التحيز المرتفع هو سمة من سمات التحيز الناقص. يعد فهم مفهوم المفاضلة هذا أمرًا بالغ الأهمية لتطوير النموذج.

أمثلة من العالم الواقعي على الإفراط في التركيب

  • تحليل الصور الطبية: ضع في اعتبارك نموذجًا مدربًا على تحليل الصور الطبية، مثل اكتشاف الأورام في فحوصات التصوير بالرنين المغناطيسي. إذا كانت بيانات التدريب تأتي في المقام الأول من نموذج ماسح ضوئي واحد للتصوير بالرنين المغناطيسي، فقد يتكيف الذكاء الاصطناعي بشكل مفرط مع خصائص الصورة المحددة (مثل أنماط الضوضاء أو الدقة) لذلك الجهاز. وعندما تُعرض عليه فحوصات من ماسح ضوئي مختلف أو صور أقل جودة، قد يتدهور أداؤه بشكل كبير لأنه تعلّم خصائص خاصة بالآلة بدلاً من الخصائص العامة للورم. يمكن أن يؤدي تحيز مجموعة البيانات إلى تفاقم هذه المشكلة.
  • المركبات ذاتية القيادة: قد يتم تدريب نموذج الكشف عن الأجسام المستخدم في مركبة ذاتية القيادة بشكل كبير على الصور الملتقطة أثناء الطقس المشمس الصافي. يمكن أن يحقق هذا النموذج دقة عالية على بيانات اختبار مماثلة ولكنه قد يفشل في اكتشاف المشاة أو راكبي الدراجات أو المركبات الأخرى بشكل موثوق في الظروف المعاكسة مثل الأمطار الغزيرة أو الضباب أو في الليل. كما أنه يتكيف بشكل مفرط مع الإشارات البصرية المحددة لبيئة التدريب (على سبيل المثال، الظلال القوية والإضاءة الساطعة) بدلاً من تعلم السمات العامة القوية للأجسام في مختلف الظروف. يساعد ضمان وجود بيانات تدريب متنوعة، ربما باستخدام مجموعات بيانات مثل COCO أو Argoverse، على التخفيف من هذه المشكلة.

تحديد الإفراط في التركيب

وعادةً ما يتم تحديد الإفراط في الملاءمة من خلال مقارنة أداء النموذج على مجموعة بيانات التدريب بمجموعة بيانات التحقق المنفصلة.

  • مقاييس الأداء: راقب مقاييس مثل الدقة والدقة والتذكر ودرجة F1. إذا استمرت مقاييس التدريب في التحسّن بينما استقرت مقاييس التحقق من الصحة أو ساءت، فمن المحتمل أن يكون النموذج قد تم تركيبه بشكل مفرط. عادةً ما تنخفض قيمة دالة الخسارة بشكل ملحوظ في مجموعة التدريب ولكنها تزداد أو تستقر في مجموعة التحقق من الصحة. يمكنك استكشاف مقاييس أداءYOLO المختلفة للتقييم.
  • منحنيات التعلّم: يوفر رسم أداء النموذج (على سبيل المثال، الخسارة أو الدقة) على مدى الحقب الزمنية لكل من مجموعتي التدريب والتحقق من الصحة رؤية مرئية. تعد الفجوة المتسعة بين منحنى التدريب (التحسن) ومنحنى التحقق من الصحة (الركود أو التدهور) علامة كلاسيكية على الإفراط في التهيئة. يساعد تصور منحنيات التعلم في تشخيص ذلك.

منع الإفراط في الملاءمة

يمكن أن تساعد العديد من التقنيات في الحد من الإفراط في التعميم وتحسين تعميم النموذج:

  • التحقق التبادلي: تستخدم تقنيات مثل التحقق التبادلي K-Fold cross-validation مجموعات فرعية مختلفة من البيانات للتدريب والتحقق من الصحة، مما يوفر تقديرًا أكثر قوة لأداء النموذج على البيانات غير المرئية.
  • زيادة البيانات: زيادة حجم مجموعة بيانات التدريب وتنوعها بشكل مصطنع من خلال تطبيق تحويلات مثل التدوير، والقياس، والقص، وتغييرات الألوان. تقنيات زيادة بياناتUltralytics YOLO مدمجة للمساعدة في تحسين المتانة.
  • التسوية: إضافة عقوبات إلى دالة الخسارة بناءً على تعقيد النموذج (على سبيل المثال، حجم الأوزان). تشمل الأساليب الشائعة التنظيم L1 و L2، والتي تثبط الأوزان الكبيرة. اقرأ المزيد عن طرق التنظيم L1 و L2.
  • الإيقاف المبكر: مراقبة أداء النموذج على مجموعة بيانات التحقق من الصحة أثناء التدريب وإيقاف عملية التدريب عندما يبدأ أداء التحقق من الصحة في التدهور، مما يمنع النموذج من تعلم الضوضاء في الحلقات اللاحقة. راجع شرح الإيقاف المبكر في Keras.
  • التسرب: تعيين جزء من تنشيط الخلايا العصبية بشكل عشوائي إلى الصفر أثناء التدريب. وهذا يجبر الشبكة على تعلم ميزات أكثر قوة لا تعتمد على أي خلية عصبية واحدة. يتم شرح مفهوم التسرب بالتفصيل هنا.
  • تشذيب النموذج: إزالة المعلمات أو الوصلات الأقل أهمية داخل شبكة عصبية مدربة لتقليل تعقيدها دون التأثير بشكل كبير على الأداء. يوفرNeural Magic أدوات للتشذيب.
  • تبسيط بنية النموذج: يمكن أن يؤدي استخدام نموذج أقل تعقيدًا (على سبيل المثال، عدد أقل من الطبقات أو المعلمات) إلى منع الإفراط في التركيب، خاصةً إذا كانت مجموعة البيانات صغيرة. قد يتضمن ذلك اختيار متغير نموذج أصغر، مثل مقارنة YOLOv8n مقابل YOLOv8x.
  • احصل على المزيد من البيانات: غالبًا ما تكون زيادة كمية بيانات التدريب عالية الجودة واحدة من أكثر الطرق فعالية لتحسين التعميم وتقليل الإفراط في التعميم. استكشف مجموعات بياناتUltralytics المختلفة.

يمكن للمطورين بناء نماذج ذكاء اصطناعي أكثر موثوقية وفعالية من خلال فهم ومعالجة الإفراط في التركيب. يمكن أن تساعد أدوات مثل Ultralytics HUB في تتبع التجارب وتقييم النماذج، مما يساعد في اكتشاف الإفراط في التركيب أثناء دورة حياة تطوير النموذج والتخفيف من حدته.

قراءة الكل