مسرد المصطلحات

الإفراط في التركيب

تعرّف على كيفية تحديد ومنع ومعالجة الإفراط في التعلّم الآلي. اكتشف تقنيات تحسين تعميم النموذج والأداء في العالم الحقيقي.

الإفراط في التهيئة هو مفهوم أساسي في التعلم الآلي (ML) يحدث عندما يتعلم النموذج التفاصيل والضوضاء في بيانات التدريب إلى الحد الذي يؤثر سلبًا على أداء النموذج على البيانات الجديدة غير المرئية. في الأساس، يحفظ النموذج مجموعة التدريب بدلاً من تعلم الأنماط الأساسية. وينتج عن ذلك نموذج يحقق دقة عالية على البيانات التي تم تدريبه عليها، ولكنه يفشل في التعميم على بيانات العالم الحقيقي، مما يجعله غير موثوق به للتطبيقات العملية. يعد تحقيق التعميم الجيد هدفًا أساسيًا في تطوير الذكاء الاصطناعي.

كيفية التعرف على الإفراط في التركيب

عادةً ما يتم تحديد الإفراط في الملاءمة من خلال مراقبة أداء النموذج على كلٍ من مجموعة بيانات التدريب ومجموعة بيانات التحقق المنفصلة أثناء عملية التدريب. من العلامات الشائعة للإفراط في الملاءمة هي عندما تستمر قيمة دالة الخسارة لمجموعة التدريب في الانخفاض، بينما تبدأ خسارة مجموعة التحقق من الصحة في الزيادة. وبالمثل، إذا استمرت دقة التدريب في التحسن ولكن دقة التحقق من الصحة تتراجع أو تزداد سوءًا خلال الحقب اللاحقة، فمن المحتمل أن يكون النموذج مفرطًا في الملاءمة. تُعد أدوات مثل TensorBoard ممتازة لتصور هذه المقاييس وتشخيص مثل هذه المشكلات في وقت مبكر. كما يمكن لمنصات مثل Ultralytics HUB أن تساعد أيضاً في تتبع التجارب وتقييم النماذج لاكتشاف الإفراط في التهيئة.

الإفراط في التركيب مقابل النقص في التركيب

إن الإفراط في التعميم ونقص التعميم مشكلتان شائعتان في التعلم الآلي تمثلان فشل النموذج في التعميم. وهما في الأساس مشكلتان متعاكستان.

  • الإفراط في التركيب: النموذج معقد للغاية بالنسبة للبيانات (تباين كبير). فهو يلتقط الضوضاء والتقلبات العشوائية في بيانات التدريب، مما يؤدي إلى أداء ممتاز أثناء التدريب ولكن أداءه ضعيف في بيانات الاختبار.
  • عدم ملاءمة النموذج: النموذج بسيط للغاية بحيث لا يمكنه التقاط البنية الأساسية للبيانات ( تحيز كبير). أداؤه ضعيف على كل من بيانات التدريب والاختبار لأنه لا يستطيع تعلم الأنماط ذات الصلة.

يكمن التحدي في التعلّم العميق في إيجاد التوازن الصحيح، وهو مفهوم غالبًا ما يوصف بالمفاضلة بين التحيّز والتباين.

أمثلة من العالم الواقعي على الإفراط في التركيب

  1. اكتشاف الأجسام في المركبات ذاتية القيادة: تخيّل تدريب نموذج Ultralytics YOLO لمركبة ذاتية القيادة باستخدام مجموعة بيانات تحتوي فقط على صور من ظروف مشمسة في النهار. قد يصبح النموذج متخصصًا للغاية في اكتشاف المشاة والسيارات في الضوء الساطع ولكنه يفشل بشكل كبير في الليل أو في الطقس الممطر أو الضبابي. وقد يتكيف بشكل مفرط مع ظروف الإضاءة والطقس المحددة لبيانات التدريب. يمكن أن يساعد استخدام مجموعات بيانات متنوعة مثل Argoverse في منع ذلك.
  2. تحليل الصور الطبية: يتم تدريب نموذج سي إن إن على اكتشاف الأورام من فحوصات التصوير بالرنين المغناطيسي المأخوذة من مستشفى واحد. قد يتعلم النموذج عن غير قصد ربط أنماط معينة من القطع الأثرية أو الضوضاء من جهاز التصوير بالرنين المغناطيسي الخاص بالمستشفى بوجود ورم. وعند اختباره على فحوصات من مستشفى مختلف بجهاز مختلف، يمكن أن ينخفض أداء النموذج بشكل كبير لأنه قد يتكيف بشكل مفرط مع ضوضاء مجموعة التدريب الأصلية، وليس العلامات البيولوجية الفعلية للأورام. هذه مشكلة حرجة في مجالات مثل الذكاء الاصطناعي في الرعاية الصحية.

كيفية منع الإفراط في التركيب

يمكن استخدام العديد من الأساليب لمكافحة الإفراط في التركيب وبناء نماذج أكثر قوة.

  • احصل على المزيد من البيانات: تعد زيادة حجم مجموعة بيانات التدريب وتنوعها إحدى أكثر الطرق فعالية لمنع الإفراط في التهيئة. يساعد المزيد من البيانات النموذج على تعلم الأنماط الأساسية الحقيقية بدلاً من الضوضاء. يمكنك استكشاف مجموعة متنوعة من مجموعات بيانات Ultralytics لتحسين مشاريعك.
  • زيادة البيانات: يتضمن ذلك توسيع مجموعة بيانات التدريب بشكل مصطنع عن طريق إنشاء نسخ معدلة من البيانات الموجودة. يتم تطبيق تقنيات مثل التدوير العشوائي، والقياس، والقص، وتغيير الألوان. تقنيات زيادة بيانات Ultralytics YOLO مدمجة لتحسين متانة النموذج.
  • تبسيط بنية النموذج: في بعض الأحيان، يكون النموذج معقدًا للغاية بالنسبة لمجموعة بيانات معينة. يمكن أن يمنع استخدام بنية أبسط بمعلمات أقل من حفظ البيانات. على سبيل المثال، يمكن أن يكون اختيار متغير نموذج أصغر مثل YOLOv8n مقابل YOLOv8x مفيدًا لمجموعات البيانات الأصغر.
  • التنظيم: تضيف هذه التقنية عقوبة إلى دالة الخسارة بناءً على تعقيد النموذج، مما يثبط أوزان النموذج الكبيرة. الأساليب الشائعة هي التنظيم L1 و L2، والتي يمكنك قراءة المزيد عنها هنا.
  • التسرب: شكل محدد من أشكال التنظيم حيث يتم تجاهل جزء عشوائي من الخلايا العصبية خلال كل خطوة تدريب. هذا يجبر الشبكة على تعلم تمثيلات زائدة عن الحاجة ويمنع أي خلية عصبية واحدة من أن تصبح مؤثرة للغاية. يتم شرح مفهوم التسرب بالتفصيل هنا.
  • الإيقاف المبكر: يتضمن هذا مراقبة أداء النموذج على مجموعة التحقق من الصحة وإيقاف عملية التدريب بمجرد أن يبدأ أداء التحقق من الصحة في الانخفاض، حتى لو كان أداء التدريب لا يزال يتحسن. يمكنك الاطلاع على شرح الإيقاف المبكر في Keras لمزيد من التفاصيل.
  • التحقق التبادلي: باستخدام تقنيات مثل التحقق التبادلي K-Fold cross-validation، يتم تقسيم البيانات إلى عدة طيات، ويتم تدريب النموذج والتحقق من صحته على مجموعات فرعية مختلفة. يوفر ذلك تقديرًا أكثر قوة لقدرة النموذج على التعميم.
  • التقليم النموذجي: يتضمن ذلك إزالة المعلمات أو الاتصالات من الشبكة المدربة التي لها تأثير ضئيل على أدائها، وبالتالي تقليل التعقيد. تقدم شركات مثل Neural Magic أدوات متخصصة في تشذيب النماذج من أجل النشر الفعال.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون ونمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة