اكتشف أهمية مراقبة النماذج في مجال الذكاء الاصطناعي. تعلم كيفية track انحراف track ومقاييس الأداء، واستخدم Ultralytics للحفاظ على قوة Ultralytics .
مراقبة النماذج هي الممارسة المستمرة لتتبع وتحليل وتقييم أداء نماذج التعلم الآلي (ML) بعد نشرها في الإنتاج. في حين أن البرامج التقليدية تعمل عادةً بشكل حتمي — متوقعةً نفس النتيجة لمدخلات معينة إلى أجل غير مسمى — تعتمد النماذج التنبؤية على أنماط إحصائية يمكن أن تتطور بمرور الوقت. مع تغير البيئة الواقعية، قد تتغير البيانات التي يتم إدخالها في هذه النماذج، مما يتسبب في تدهور الدقة أو الموثوقية. تضمن المراقبة أن تستمر أنظمة الذكاء الاصطناعي (AI) في تقديم القيمة من خلال تحديد مشكلات مثل انحراف البيانات أو انحراف المفاهيم قبل أن تؤثر سلبًا على نتائج الأعمال أو تجربة المستخدم.
في دورة حياة عمليات التعلم الآلي (MLOps) ، لا يعتبر النشر خط النهاية. يمثل النموذج الذي تم تدريبه على البيانات التاريخية لقطة من العالم في لحظة معينة. بمرور الوقت، يمكن للعوامل الخارجية - مثل التغيرات الموسمية أو التحولات الاقتصادية أو سلوكيات المستخدمين الجديدة - أن تغير توزيع البيانات الأساسية. هذه الظاهرة، المعروفة باسم انحراف البيانات، يمكن أن تؤدي إلى "أعطال صامتة" حيث ينتج النموذج تنبؤات دون رسائل خطأ، ولكن جودة هذه التنبؤات تقل عن المعايير المقبولة .
توفر المراقبة الفعالة رؤية واضحة لهذه التغييرات الدقيقة. من خلال إنشاء خطوط أساس باستخدام بيانات التحقق ومقارنتها مع تدفقات الإنتاج الحية ، يمكن لفرق الهندسة detect في وقت مبكر. يتيح هذا النهج الاستباقي إعادة تدريب النماذج أو تحديثها في الوقت المناسب ، مما يضمن أن تظل أنظمة مثل المركبات ذاتية القيادة أو خوارزميات الكشف عن الاحتيال آمنة وفعالة.
للحفاظ على نظام ML صحي، track الممارسون track متنوعة من المقاييس التي تنقسم عمومًا إلى ثلاث فئات:
تعد مراقبة النماذج أمرًا بالغ الأهمية في مختلف الصناعات التي تؤثر فيها القرارات الآلية على العمليات والسلامة:
من المفيد التمييز بين المراقبة وال القابلية للمراقبة، حيث إنهما يؤديان أدوارًا متكاملة. عادةً ما تكون مراقبة النموذج تفاعلية وتركز على "المجهول المعروف"، باستخدام لوحات المعلومات لتنبيه الفرق عندما تتجاوز مقاييس معينة عتبة معينة (على سبيل المثال، انخفاض الدقة إلى أقل من 90٪). أما القابلية للمراقبة فتتعمق أكثر في "المجهول المجهول"، حيث توفر سجلات وتتبعًا دقيقًا يتيح للمهندسين تصحيح أسباب فشل تنبؤ معين أو أسباب ظهور نموذج متحيز في الذكاء الاصطناعي ضد فئة سكانية معينة.
هناك طريقة بسيطة لمراقبة سلامة نموذج الرؤية الحاسوبية، وهي track ثقة تنبؤاته. قد يشير انخفاض كبير في الثقة إلى أن النموذج يواجه بيانات لم يتم تدريبه على التعامل معها.
فيما يلي Python يستخدم YOLO26 لاستخراج درجات الثقة من مجموعة من الصور لأغراض المراقبة:
import numpy as np
from ultralytics import YOLO
# Load the YOLO26 model
model = YOLO("yolo26n.pt")
# Run inference on a source (e.g., a video frame or image list)
results = model(["bus.jpg", "zidane.jpg"])
# Extract confidence scores for monitoring
for i, result in enumerate(results):
# Get the confidence scores for all detected objects
confidences = result.boxes.conf.cpu().numpy()
if len(confidences) > 0:
avg_conf = np.mean(confidences)
print(f"Image {i}: Average Detection Confidence: {avg_conf:.3f}")
else:
print(f"Image {i}: No objects detected.")
يسمح تسجيل هذه الإحصائيات بانتظام للفرق بتصور الاتجاهات بمرور الوقت باستخدام أدوات مثل Grafana أو ميزات المراقبة داخل Ultralytics مما يضمن بقاء النماذج قوية في البيئات الديناميكية .