يحدث الإفراط في التعميم في التعلّم الآلي (ML) عندما يتعلم النموذج بيانات التدريب بشكل جيد للغاية، حيث يلتقط الضوضاء والتقلبات العشوائية بدلاً من النمط الأساسي. يؤدي ذلك إلى أداء ممتاز على مجموعة بيانات التدريب ولكن التعميم الضعيف على البيانات الجديدة غير المرئية. وبشكلٍ أساسي، يصبح النموذج معقدًا للغاية ومصمّمًا خصيصًا لأمثلة التدريب، وهو ما يشبه حفظ الإجابات بدلاً من فهم المفاهيم. إنه تحدٍ شائع عند تدريب نماذج الذكاء الاصطناعي، خاصةً مع الخوارزميات المعقدة مثل الشبكات العصبية المستخدمة في Ultralytics YOLO لمهام مثل اكتشاف الأجسام وتجزئة الصور.
فهم الملاءمة المفرطة
ينشأ الإفراط في التركيب لأن نماذج التعلم الآلي تهدف إلى تقليل الأخطاء في بيانات التدريب. إذا كان النموذج يمتلك تعقيدًا مفرطًا (على سبيل المثال، الكثير من المعلمات أو الطبقات)، فيمكنه أن يلائم حتى الضوضاء العشوائية الموجودة في مجموعة التدريب. هذه الضوضاء لا تمثل الأنماط الأساسية الحقيقية ومن غير المحتمل أن تكون موجودة في مجموعات البيانات الجديدة. تخيّل تصميم بدلة تتناسب تماماً مع القياسات الدقيقة لشخص ما في يوم محدد - قد لا تتناسب بشكل جيد إذا تذبذب وزنه قليلاً أو إذا جربها شخص آخر. في التعلم الآلي، يؤدي هذا "الملاءمة المثالية" لبيانات التدريب إلى عدم المرونة وضعف الأداء على بيانات العالم الحقيقي، وغالبًا ما يشار إلى ذلك بالتعميم الضعيف.
المشكلة المعاكسة هي مشكلة عدم الملاءمة الناقصة، حيث يكون النموذج بسيطًا للغاية بحيث لا يستطيع التقاط البنية الأساسية للبيانات. يكون أداء النموذج غير الملائم ضعيفًا على كل من بيانات التدريب والبيانات الجديدة لأنه لم يتعلم ما يكفي. الهدف هو إيجاد توازن أمثل، وغالبًا ما تتم مناقشته في سياق المفاضلة بين التحيز والتباين، مما يخلق نموذجًا يعمم بشكل جيد على البيانات غير المرئية.
أمثلة من العالم الواقعي على الإفراط في التركيب
- تحليل الصور الطبية: في تحليل الصور الطبية للكشف عن الأمراض، قد يصبح النموذج الملائم بشكل استثنائي جيدًا بشكل استثنائي في تحديد الأمراض في مجموعة محددة من الصور التي تم تدريبه عليها، ربما من خلال تعلم التحف الفريدة أو الضوضاء الموجودة فقط في مجموعة البيانات تلك (على سبيل المثال، من ماسح ضوئي معين). عند تقديم صور طبية جديدة من أجهزة أو مجموعات مرضى أو حالات تصوير مختلفة، قد يفشل النموذج في التعميم، مما قد يؤدي إلى تشخيصات غير دقيقة في الإعدادات السريرية. على سبيل المثال، قد يتكيف النموذج المُدرَّب على اكتشاف الأورام باستخدام فحوصات التصوير بالرنين المغناطيسي من المستشفى (أ) بشكل مفرط مع خصائص جهاز التصوير بالرنين المغناطيسي الخاص بالمستشفى (أ) وقد يكون أداؤه ضعيفاً مع فحوصات المستشفى (ب)، حتى لو كانت الحالة المرضية الأساسية متطابقة.
- القيادة الذاتية: قد يتكيف نموذج اكتشاف الأجسام لمركبة ذاتية القيادة تم تدريبه بشكل مفرط على بيانات النهار والطقس الصافي بشكل مفرط مع هذه الظروف. فقد يؤدي النموذج أداءً جيداً في التعرف على المشاة والمركبات الأخرى في ضوء الشمس الساطع، ولكنه قد يعاني بشكل كبير أثناء الليل أو المطر أو الضباب أو الثلوج، ويفشل في اكتشاف الأجسام بشكل موثوق بسبب عدم تعميمه على هذه المدخلات البصرية المتنوعة، مما يشكل خطراً كبيراً على السلامة.
منع الإفراط في الملاءمة
يمكن أن تساعد العديد من التقنيات في الحد من الإفراط في التعميم وتحسين تعميم النموذج:
- تبسيط النموذج: يمكن أن يؤدي استخدام بنية نموذج أقل تعقيدًا (عدد أقل من الطبقات أو المعلمات) إلى منع النموذج من الضوضاء الملائمة. كما يمكن لتقنيات مثل تشذيب النموذج أن تقلل من التعقيد.
- زيادة البيانات: زيادة حجم وتنوع مجموعة بيانات التدريب بشكل مصطنع يساعد النموذج على تعلم ميزات أكثر قوة. تتضمن تقنيات زيادة بياناتUltralytics YOLO زيادة البيانات عمليات التدوير، والترجمة، والقياس، وتغييرات الألوان.
- التنظيم: تؤدي إضافة عقوبات إلى دالة الخسارة بناءً على معلمات النموذج إلى تثبيط النماذج المعقدة للغاية. تشمل الأساليب الشائعة تنظيم L1 و L2.
- الإيقاف المبكر: مراقبة أداء النموذج على مجموعة بيانات تحقق منفصلة أثناء التدريب وإيقاف العملية عندما يبدأ أداء التحقق من الصحة في التدهور، حتى لو كان أداء التدريب لا يزال يتحسن. هذا يمنع النموذج من تعلم بيانات التدريب لعدد كبير جدًا من الحقب الزمنية.
- التحقق التبادلي: توفر تقنيات مثل التحقق التبادلي K-Fold cross-validation تقديرًا أكثر قوة لأداء النموذج على البيانات غير المرئية وتساعد في اختيار النماذج التي تعمم بشكل أفضل.
- التسرب: يؤدي تعيين جزء من تنشيط الخلايا العصبية عشوائيًا إلى الصفر أثناء التدريب إلى إجبار الشبكة على تعلم المزيد من التمثيلات الزائدة عن الحاجة، مما يقلل من الاعتماد على خلايا عصبية محددة. انظر شرح مفهوم التسرب.
يمكن للمطورين بناء نماذج ذكاء اصطناعي أكثر موثوقية وفعالية من خلال فهم ومعالجة الإفراط في التركيب. يمكن أن تساعد أدوات مثل Ultralytics HUB في تتبع التجارب وتقييم النماذج، مما يساعد في اكتشاف الإفراط في التركيب أثناء دورة حياة تطوير النموذج والتخفيف من حدته.