تعرف على كيفية قيام الذكاء الاصطناعي القابل للتفسير (XAI) بجعل نماذج التعلم الآلي المعقدة شفافة. اكتشف التقنيات الرئيسية مثل SHAP و LIME لبناء الثقة في Ultralytics .
يشير مصطلح الذكاء الاصطناعي القابل للتفسير (XAI) إلى مجموعة شاملة من العمليات والأدوات والأساليب المصممة لجعل مخرجات أنظمة الذكاء الاصطناعي (AI) مفهومة للمستخدمين البشريين. مع تزايد استخدام المؤسسات لنماذج التعلم الآلي المعقدة نماذج التعلم الآلي (ML) المعقدة بشكل متزايد — لا سيما في مجال التعلم العميق (DL)— غالبًا ما تعمل هذه الأنظمة كـ "صناديق سوداء". في حين أن نموذج الصندوق الأسود قد يوفر تنبؤات عالية الدقة، إلا أن منطق صنع القرار الداخلي الخاص به يظل غامضًا. يهدف XAI إلى إلقاء الضوء على هذه العملية، ومساعدة أصحاب المصلحة على فهم سبب اتخاذ قرار معين، وهو أمر بالغ الأهمية لتعزيز الثقة وضمان السلامة والامتثال للوائح التنظيمية.
إن المطالبة بالشفافية في عملية اتخاذ القرارات الآلية تدفع إلى اعتماد XAI في مختلف الصناعات. الثقة هي عامل أساسي؛ فالمستخدمون أقل احتمالاً للاعتماد على النمذجة التنبؤية إذا لم يتمكنوا من التحقق من المنطق الكامن وراءها. وهذا أمر مهم بشكل خاص في البيئات عالية المخاطر حيث يمكن أن تؤدي الأخطاء إلى عواقب وخيمة .
توجد تقنيات مختلفة لجعل الشبكات العصبية أكثر شفافية، وغالبًا ما يتم تصنيفها حسب ما إذا كانت غير مرتبطة بنموذج معين (قابلة للتطبيق على أي خوارزمية) أو مرتبطة بنموذج معين.
الذكاء الاصطناعي القابل للتفسير أمر بالغ الأهمية في القطاعات التي يكون فيها "السبب" بنفس أهمية "الشيء".
من المفيد التمييز بين XAI والمفاهيم المماثلة في مسرد مصطلحات الذكاء الاصطناعي:
تتمثل إحدى الخطوات الأساسية في تفسير الرؤية الحاسوبية في تصور تنبؤات النموذج مباشرة على الصورة.
بينما تستخدم تقنية XAI المتقدمة خرائط الحرارة، فإن رؤية المربعات المحيطة ودرجات الثقة توفر فكرة فورية عما
اكتشفه النموذج. باستخدام ultralytics حزمة مع أحدث النماذج مثل
يولو26، يمكن للمستخدمين فحص مخرجات الكشف بسهولة.
from ultralytics import YOLO
# Load a pre-trained YOLO26 model (Nano version)
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Visualize the results
# This displays the image with bounding boxes, labels, and confidence scores,
# acting as a basic visual explanation of the model's detection logic.
results[0].show()
يعمل هذا التصور البسيط كاختبار للسلامة العقلية، وهو شكل أساسي من أشكال القابلية للتفسير يؤكد أن النموذج يهتم بالأشياء ذات الصلة في المشهد أثناء مهام اكتشاف الأشياء. للحصول على سير عمل أكثر تقدمًا يتضمن إدارة مجموعات البيانات وتصور تدريب النموذج، يمكن للمستخدمين الاستفادة من Ultralytics . غالبًا ما يوسع الباحثون نطاق هذا من خلال الوصول إلى خرائط الميزات الأساسية لإجراء تحليل أعمق موصوف في مبادئ NIST XAI.