اكتشف كيف تجمع مجموعات النماذج بين هياكل متعددة مثل Ultralytics لتعزيز الدقة والمتانة. تعرف على التقنيات الأساسية ونصائح التنفيذ.
نموذج المجموعة هو نهج استراتيجي في التعلم الآلي حيث يتم الجمع بين التنبؤات من عدة نماذج فردية لإنتاج ناتج نهائي غالبًا ما يكون أكثر دقة وقوة من أي نموذج فردي يمكن أن يحققه بمفرده. مثل لجنة الخبراء التي تتداول للوصول إلى قرار أفضل من قرار فرد واحد ، يستفيد نموذج المجموعة من نقاط القوة في البنى المتنوعة لتقليل الأخطاء. تُستخدم هذه التقنية على نطاق واسع لتحسين الأداء في المهام المعقدة، وتقليل مخاطر التكيف المفرط، والتعامل مع التوازن بين التحيز والتباين الموجود في النمذجة الإحصائية .
المبدأ الأساسي وراء مجموعة النماذج هو "التنوع". من خلال تدريب نماذج متعددة — غالبًا ما يشار إليها باسم "المتعلمون الأساسيون" أو "المتعلمون الضعفاء" — على مجموعات فرعية مختلفة من بيانات التدريب أو باستخدام خوارزميات مختلفة، تضمن المجموعة أن الأخطاء التي يرتكبها أحد النماذج من المرجح أن يتم تصحيحها بواسطة النماذج الأخرى. في سياق التعلم العميق، غالبًا ما يتضمن ذلك تشغيل شبكات عصبية متعددة بالتوازي أثناء الاستدلال.
تشمل الطرق الشائعة لدمج هذه التنبؤات ما يلي:
تعد مجموعات النماذج ضرورية في البيئات عالية المخاطر حيث يكون تحقيق أقصى قدر من الدقة أمرًا بالغ الأهمية وتسمح الموارد الحاسوبية بتشغيل نماذج متعددة.
بينما يمكن بناء استراتيجيات مجموعات معقدة باستخدام مكتبات مثل Scikit-learn، يمكنك إنشاء مجموعة استدلال أساسية للرؤية الحاسوبية ببساطة عن طريق تحميل نماذج متعددة ومعالجة نفس المدخلات. يوضح المثال التالي كيفية تحميل نموذجين متميزين Ultralytics YOLO لتوليد تنبؤات على نفس الصورة.
from ultralytics import YOLO
# Load two different model variants to create a diverse ensemble
model_a = YOLO("yolo26n.pt") # Nano model (Speed focused)
model_b = YOLO("yolo26s.pt") # Small model (Higher accuracy)
# Perform inference on an image with both models
# In production, results are typically merged programmatically
results_a = model_a("https://ultralytics.com/images/bus.jpg")
results_b = model_b("https://ultralytics.com/images/bus.jpg")
print(f"Model A detected {len(results_a[0].boxes)} objects.")
print(f"Model B detected {len(results_b[0].boxes)} objects.")
من المفيد التمييز بين مجموعة النماذج القياسية و مزيج الخبراء (MoE)، وهو مصطلح شائع الاستخدام في الأبحاث الحديثة حول نماذج اللغة الكبيرة (LLM).
الميزة الرئيسية لاستخدام مجموعة النماذج هي تحسين الأداء. غالبًا ما تهيمن المجموعات على قوائم المتصدرين في تحديات علم البيانات مثل مسابقات Kaggle لأنها تستطيع نمذجة أنماط معقدة تفوت النماذج الفردية. ومع ذلك، فإن هذا يأتي بتكلفة: يتطلب نشر المجموعات المزيد من الذاكرة وقوة الحوسبة.
بالنسبة للفرق التي تسعى إلى إدارة متطلبات الموارد هذه بكفاءة، توفر Ultralytics أدوات لتدريب track ومقارنة بنى النماذج المختلفة. من خلال مقارنة مقاييس الأداء بسهولة، يمكن للمطورين تحديد ما إذا كان تحسن الدقة الناجم عن المجموعة يبرر البنية التحتية الإضافية المطلوبة للنشر في سيناريوهات الذكاء الاصطناعي المتطورة.