Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

الذكاء الاصطناعي القابل للتفسير (XAI)

تعرف على كيفية قيام الذكاء الاصطناعي القابل للتفسير (XAI) بجعل نماذج التعلم الآلي المعقدة شفافة. اكتشف التقنيات الرئيسية مثل SHAP و LIME لبناء الثقة في Ultralytics .

يشير مصطلح الذكاء الاصطناعي القابل للتفسير (XAI) إلى مجموعة شاملة من العمليات والأدوات والأساليب المصممة لجعل مخرجات أنظمة الذكاء الاصطناعي (AI) مفهومة للمستخدمين البشريين. مع تزايد استخدام المؤسسات لنماذج التعلم الآلي المعقدة نماذج التعلم الآلي (ML) المعقدة بشكل متزايد — لا سيما في مجال التعلم العميق (DL)— غالبًا ما تعمل هذه الأنظمة كـ "صناديق سوداء". في حين أن نموذج الصندوق الأسود قد يوفر تنبؤات عالية الدقة، إلا أن منطق صنع القرار الداخلي الخاص به يظل غامضًا. يهدف XAI إلى إلقاء الضوء على هذه العملية، ومساعدة أصحاب المصلحة على فهم سبب اتخاذ قرار معين، وهو أمر بالغ الأهمية لتعزيز الثقة وضمان السلامة والامتثال للوائح التنظيمية.

أهمية قابلية التفسير

إن المطالبة بالشفافية في عملية اتخاذ القرارات الآلية تدفع إلى اعتماد XAI في مختلف الصناعات. الثقة هي عامل أساسي؛ فالمستخدمون أقل احتمالاً للاعتماد على النمذجة التنبؤية إذا لم يتمكنوا من التحقق من المنطق الكامن وراءها. وهذا أمر مهم بشكل خاص في البيئات عالية المخاطر حيث يمكن أن تؤدي الأخطاء إلى عواقب وخيمة .

التقنيات الشائعة في XAI

توجد تقنيات مختلفة لجعل الشبكات العصبية أكثر شفافية، وغالبًا ما يتم تصنيفها حسب ما إذا كانت غير مرتبطة بنموذج معين (قابلة للتطبيق على أي خوارزمية) أو مرتبطة بنموذج معين.

  • SHAP (SHapley Additive exPlanations): استنادًا إلى نظرية الألعاب التعاونية، تُعطي قيم SHAP درجة مساهمة لكل ميزة لتنبؤ معين، مما يوضح مدى تأثير كل مدخل على تغيير النتيجة عن خط الأساس.
  • LIME (تفسيرات محلية قابلة للتفسير ومستقلة عن النموذج): تقارب هذه الطريقة نموذجًا معقدًا بنموذج أبسط وقابل للتفسير (مثل النموذج الخطي) محليًا حول تنبؤ محدد. تساعد LIME في تفسير الحالات الفردية عن طريق تعطيل المدخلات و مراقبة التغييرات في المخرجات.
  • خرائط البروز: تستخدم على نطاق واسع في الرؤية الحاسوبية (CV)، وتسلط هذه التصورات الضوء على وحدات البكسل في الصورة التي أثرت بشكل كبير على قرار النموذج. طرق مثل Grad-CAM تنشئ خرائط حرارية لتوضيح المكان الذي "نظر" إليه النموذج لتحديد كائن ما.

تطبيقات واقعية

الذكاء الاصطناعي القابل للتفسير أمر بالغ الأهمية في القطاعات التي يكون فيها "السبب" بنفس أهمية "الشيء".

  1. التشخيصات الطبية: في تحليل الصور الطبية، لا يكفي أن يقوم الذكاء الاصطناعي ببساطة بتمييز الأشعة السينية على أنها غير طبيعية. يقوم النظام المزود بـ XAI بتمييز المنطقة المحددة من الرئة أو العظم التي أثارت الإنذار. تسمح هذه الأدلة المرئية لأخصائيي الأشعة بالتحقق من صحة نتائج النموذج، مما يسهل اعتماد الذكاء الاصطناعي في الرعاية الصحية بشكل أكثر أمانًا.
  2. الخدمات المالية: عندما تستخدم البنوك خوارزميات لتقييم الجدارة الائتمانية، فإن رفض طلب القرض يتطلب مبرراً واضحاً للامتثال لقوانين مثل قانون تكافؤ فرص الائتمان. يمكن لأدوات XAI تحليل الرفض إلى عوامل مفهومة — مثل "نسبة الدين إلى الدخل مرتفعة جداً " — مما يعزز العدالة في الذكاء الاصطناعي ويسمح للمتقدمين بمعالجة المشكلات المحددة.

التمييز بين المصطلحات ذات الصلة

من المفيد التمييز بين XAI والمفاهيم المماثلة في مسرد مصطلحات الذكاء الاصطناعي:

  • XAI مقابل الشفافية في الذكاء الاصطناعي: الشفافية هي مفهوم أوسع يشمل انفتاح النظام بأكمله، بما في ذلك مصادر البيانات و عمليات التطوير. تركز XAI بشكل خاص على التقنيات المستخدمة لجعل منطق الاستدلال مفهومًا. قد تتضمن الشفافية نشر أوزان النموذج، بينما تشرح XAI سبب توصل تلك الأوزان إلى نتيجة معينة.
  • XAI مقابل قابلية التفسير: غالبًا ما تشير قابلية التفسير إلى النماذج التي تكون بطبيعتها مفهومة من حيث التصميم، مثل أشجار القرار أو الانحدار الخطي. عادةً ما تتضمن XAI طرقًا لاحقة تُطبق على نماذج معقدة وغير قابلة للتفسير مثل الشبكات العصبية التلافيفية العميقة (CNN).

مثال على الكود: تصور الاستدلال للتفسير

تتمثل إحدى الخطوات الأساسية في تفسير الرؤية الحاسوبية في تصور تنبؤات النموذج مباشرة على الصورة. بينما تستخدم تقنية XAI المتقدمة خرائط الحرارة، فإن رؤية المربعات المحيطة ودرجات الثقة توفر فكرة فورية عما اكتشفه النموذج. باستخدام ultralytics حزمة مع أحدث النماذج مثل يولو26، يمكن للمستخدمين فحص مخرجات الكشف بسهولة.

from ultralytics import YOLO

# Load a pre-trained YOLO26 model (Nano version)
model = YOLO("yolo26n.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")

# Visualize the results
# This displays the image with bounding boxes, labels, and confidence scores,
# acting as a basic visual explanation of the model's detection logic.
results[0].show()

يعمل هذا التصور البسيط كاختبار للسلامة العقلية، وهو شكل أساسي من أشكال القابلية للتفسير يؤكد أن النموذج يهتم بالأشياء ذات الصلة في المشهد أثناء مهام اكتشاف الأشياء. للحصول على سير عمل أكثر تقدمًا يتضمن إدارة مجموعات البيانات وتصور تدريب النموذج، يمكن للمستخدمين الاستفادة من Ultralytics . غالبًا ما يوسع الباحثون نطاق هذا من خلال الوصول إلى خرائط الميزات الأساسية لإجراء تحليل أعمق موصوف في مبادئ NIST XAI.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن