الشيك الأخضر
تم نسخ الرابط إلى الحافظة

كل ما تحتاج إلى معرفته عن الذكاء الاصطناعي القابل للتفسير (XAI)

اكتشف كيف يعمل الذكاء الاصطناعي القابل للتفسير (XAI) على بناء الثقة من خلال جعل تنبؤات الذكاء الاصطناعي شفافة وموثوقة في مجالات الرعاية الصحية والأمن والقيادة الذاتية وغيرها.

هل سبق لك أن رأيت استجابة من أداة ذكاء اصطناعي (AI) مثل ChatGPT وتساءلت كيف توصلت إلى هذا الاستنتاج؟ إذًا، لقد واجهت مشكلة "الصندوق الأسود" للذكاء الاصطناعي. وهو مصطلح يشير إلى عدم وضوح كيفية معالجة نماذج الذكاء الاصطناعي للبيانات وتحليلها. فحتى مهندسو وعلماء الذكاء الاصطناعي الذين يعملون مع خوارزميات الذكاء الاصطناعي المتطورة بانتظام قد يجدون صعوبة في فهم طريقة عملها الداخلية بشكل كامل. في الواقع، 22% فقط من محترفي تكنولوجيا المعلومات يفهمون حقًا قدرات أدوات الذكاء الاصطناعي. 

قد تكون حالة عدم اليقين التي تحيط بكيفية اتخاذ نماذج الذكاء الاصطناعي للقرارات محفوفة بالمخاطر، خاصة في المجالات الحرجة مثل الرؤية الحاسوبية في مجال الرعاية الصحية والذكاء الاصطناعي في مجال التمويل. ومع ذلك، يتم إحراز تقدم كبير لمعالجة هذه التحديات وتحسين الشفافية.

على وجه الخصوص، يركز الذكاء الاصطناعي القابل للتفسير (XAI) فقط على حل هذه المشكلة. ببساطة، هو ببساطة عبارة عن مجموعة من العمليات والأساليب التي تساعد المستخدمين من البشر على فهم النتائج أو المخرجات التي تقدمها خوارزميات التعلم الآلي المعقدة والثقة بها. 

يمكن أن تساعد XAI المطورين على ضمان عمل أنظمة الذكاء الاصطناعي كما هو متوقع. كما يمكن أن يساعد شركات الذكاء الاصطناعي على تلبية المعايير التنظيمية. في هذه المقالة، سنستكشف في هذه المقالة الذكاء الاصطناعي القابل للتفسير ومجموعة واسعة من حالات استخدامه. لنبدأ!

أهمية الذكاء الاصطناعي القابل للتفسير

قابلية الشرح هي المفتاح عند العمل مع الذكاء الاصطناعي. وينطبق هذا الأمر بشكل خاص عندما يتعلق الأمر بالمجال الفرعي للذكاء الاصطناعي، وهو مجال الرؤية الحاسوبية، والذي يُستخدم على نطاق واسع في تطبيقات في صناعات مثل الرعاية الصحية. عند استخدام نماذج الرؤية في مثل هذه الصناعات الحساسة، من المهم أن تكون طريقة عمل النموذج شفافة وقابلة للتفسير للجميع. 

تساعد قابلية التفسير في نماذج الرؤية الحاسوبية المستخدمين على فهم أفضل لكيفية وضع التنبؤ والمنطق الكامن وراءه. تضيف الشفافية إلى ذلك من خلال جعل طريقة عمل النموذج واضحة للجميع من خلال تحديد حدود النموذج بوضوح وضمان استخدام البيانات بشكل أخلاقي. على سبيل المثال، يمكن أن تساعد الرؤية الحاسوبية أخصائيي الأشعة في تحديد المضاعفات الصحية في صور الأشعة السينية بكفاءة. 

الشكل 1. صور الأشعة السينية للصدر التي تم تحليلها باستخدام الذكاء الاصطناعي فيجن (Vision AI) تظهر تصنيفات السل السليم والمريض والنشط والكامن.

ومع ذلك، فإن نظام الرؤية الدقيق فقط لا يكفي. يحتاج النظام أيضاً إلى أن يكون قادراً على تفسير قراراته. لنفترض أنه يمكن للنظام أن يُظهر أجزاء الصورة التي أدت إلى استنتاجاته - عندها، ستكون أي مخرجات أكثر وضوحاً. مثل هذا المستوى من الشفافية من شأنه أن يساعد المهنيين الطبيين على التحقق مرة أخرى من النتائج التي توصلوا إليها والتأكد من أن رعاية المرضى تتوافق مع المعايير الطبية. 

من الأسباب الأخرى التي تجعل قابلية الشرح ضرورية هي أنها تجعل شركات الذكاء الاصطناعي مسؤولة وتبني الثقة لدى المستخدمين. فالذكاء الاصطناعي الجدير بالثقة يؤدي إلى شعور المستخدمين بالثقة في أن ابتكارات الذكاء الاصطناعي تعمل بشكل موثوق وتتخذ قرارات عادلة وتتعامل مع البيانات بشكل مسؤول

تقنيات الذكاء الاصطناعي الرئيسية القابلة للتفسير في الرؤية الحاسوبية

والآن بعد أن ناقشنا أهمية قابلية الشرح في الرؤية الحاسوبية، دعونا نلقي نظرة على تقنيات الذكاء الاصطناعي البصري الرئيسية المستخدمة في الذكاء الاصطناعي البصري.

خرائط الصلاحية

الشبكات العصبية هي نماذج مستوحاة من الدماغ البشري، وهي مصممة للتعرف على الأنماط واتخاذ القرارات من خلال معالجة البيانات من خلال طبقات مترابطة من العقد (الخلايا العصبية). ويمكن استخدامها لحل مشاكل الرؤية الحاسوبية المعقدة بدقة عالية. وحتى مع هذه الدقة، فإنها لا تزال صناديق سوداء حسب التصميم. 

خرائط الصلاحية هي إحدى تقنيات XAI التي يمكن استخدامها للمساعدة في فهم ما تراه الشبكات العصبية عند تحليلها للصور. يمكن استخدامها أيضًا لاستكشاف أخطاء النماذج وإصلاحها في حالة عدم أدائها كما هو متوقع. 

تعمل خرائط الصلاحية من خلال التركيز على أجزاء الصورة (البكسل) التي تحدد تنبؤات النموذج. تشبه هذه العملية إلى حدٍ كبير عملية التكاثر العكسي، حيث يتتبع النموذج من التنبؤات إلى المدخلات. ولكن بدلًا من تحديث أوزان النموذج بناءً على الأخطاء، فإننا ننظر فقط إلى مدى "أهمية" كل بكسل للتنبؤ. خرائط الصلاحية مفيدة جدًا لمهام الرؤية الحاسوبية مثل تصنيف الصور.

على سبيل المثال، إذا كان نموذج تصنيف الصور يتنبأ بأن الصورة لكلب، فيمكننا النظر إلى خريطة البروز الخاصة بها لفهم سبب اعتقاد النموذج أنها كلب. يساعدنا ذلك في تحديد وحدات البكسل التي تؤثر على المخرجات أكثر من غيرها. ستسلط خريطة البروز الضوء على جميع وحدات البكسل التي ساهمت في التنبؤ النهائي بأن الصورة لكلب.

الشكل 2. منظر جانبي لصور المدخلات وخرائط بروزها.

تخطيط تنشيط الفئة (CAM)

تخطيط تنشيط الفئة هو تقنية أخرى من تقنيات XAI تُستخدم لفهم أجزاء الصورة التي تركز عليها الشبكة العصبية عند إجراء تنبؤات تصنيف الصور. وهو يعمل بشكل مشابه لخرائط البروز ولكنه يركز على تحديد الميزات المهمة في الصورة بدلاً من وحدات بكسل محددة. الميزات هي الأنماط أو التفاصيل، مثل الأشكال أو القوام، التي يكتشفها النموذج في الصورة.

تعتمد طرق مثل تخطيط تنشيط الفئة المرجحة بالتدرج (Grad-CAM) و Grad-CAM++ على نفس الفكرة، مع بعض التحسينات.

إليك كيفية عمل CAM:

  • قبل أن تتخذ الشبكة العصبية قرارها النهائي، تستخدم خطوة تسمى تجميع المتوسط العالمي (GAP) لتبسيط المعلومات. يدمج GAP جميع وحدات البكسل في النمط المكتشف في قيمة متوسطة واحدة، مما يؤدي إلى إنشاء ملخص لكل خريطة ميزة (تمثيل مرئي للأنماط المكتشفة).
  • ثم يتم إعطاء كل خريطة ميزة وزنًا يوضح مدى أهميتها للتنبؤ بفئة معينة (مثل "طائر" أو "قطة").
  • ومع ذلك، فإن أحد قيود CAM هو أنك قد تحتاج إلى إعادة تدريب النموذج لحساب هذه الأوزان، وهو ما قد يستغرق وقتًا طويلاً.

تعمل Grad-CAM على تحسين ذلك باستخدام التدرجات، والتي تشبه الإشارات التي توضح مدى تأثير كل خريطة ميزة على التنبؤ النهائي. تتجنب هذه الطريقة الحاجة إلى GAP وتجعل من السهل رؤية ما يركز عليه النموذج دون إعادة التدريب. تأخذ ++ Grad-CAM خطوة إلى الأمام من خلال التركيز فقط على التأثيرات الإيجابية، مما يجعل النتائج أكثر وضوحًا.

الشكل 3. مقارنة بين CAM وGrad-CAM وGrad-CAM++.

التفسيرات المناقضة للواقع

تعد التفسيرات المضادة للواقع عنصراً مهماً في الذكاء الاصطناعي القابل للتفسير. يتضمن التفسير المضاد للواقع وصف موقف أو نتيجة من خلال النظر في سيناريوهات أو أحداث بديلة لم تحدث ولكن كان من الممكن أن تحدث. يمكن أن يوضح كيف تؤدي التغييرات في متغيرات مدخلات محددة إلى نتائج مختلفة، مثل: "لو لم يحدث "س" لما حدث "ص"."

عندما يتعلّق الأمر بالذكاء الاصطناعي والرؤية الحاسوبية، يحدد التفسير المضاد للواقع أصغر تغيير مطلوب في المدخلات (مثل صورة أو بيانات) لجعل نموذج الذكاء الاصطناعي ينتج نتيجة مختلفة ومحددة. على سبيل المثال، يمكن أن يؤدي تغيير لون كائن في صورة ما إلى تغيير تنبؤ نموذج تصنيف الصور من "قطة" إلى "كلب".

مثال جيد آخر هو تغيير الزاوية أو الإضاءة في نظام التعرف على الوجه. قد يؤدي ذلك إلى أن يتعرف النموذج على شخص مختلف، مما يوضح كيف يمكن أن تؤثر التغييرات الصغيرة في المدخلات على تنبؤات النموذج.

إن أبسط طريقة لإنشاء هذه التفسيرات هي التجربة والخطأ: يمكنك تغيير أجزاء من المدخلات بشكل عشوائي (مثل ميزات الصورة أو البيانات) حتى يمنحك نموذج الذكاء الاصطناعي النتيجة المطلوبة. تتضمن الطرق الأخرى طرقًا أخرى تتضمن أساليب لا تعتمد على النموذج، والتي تستخدم تقنيات التحسين والبحث للعثور على التغييرات، وأساليب خاصة بالنموذج، والتي تعتمد على الإعدادات الداخلية أو الحسابات لتحديد التغييرات المطلوبة.

تطبيقات الذكاء الاصطناعي القابل للتفسير في الرؤية الحاسوبية

والآن بعد أن استكشفنا ماهية XAI وتقنياته الرئيسية، يمكننا الآن استعراض كيفية استخدامه في الحياة الواقعية. لدى XAI تطبيقات متنوعة في العديد من المجالات. دعونا نتعمق في بعض حالات الاستخدام التي تسلط الضوء على إمكاناته:

  • أنظمة الأمان: يمكن استخدام XAI لتعزيز الأنظمة الأمنية من خلال الكشف عن الصور المحوّرة في وثائق الهوية مثل جوازات السفر ورخص القيادة. وهذا يضمن صحة الصور ويعزز عمليات التحقق من الهوية ويمنع الأنشطة الاحتيالية في التطبيقات الحساسة.
الشكل 4. كيفية عمل XAI للكشف عن الصور المحوّرة.

  • القيادة الذاتية: يمكن أن يكون فهم قدرات وقيود نظام الذكاء الاصطناعي المرئي على متن السيارة ذاتية القيادة جزءًا كبيرًا من اختبار السيارة قبل نشرها على طرقات العالم الحقيقي. يمكن أن يساعد الذكاء الاصطناعي البصري شركات السيارات على تحديد المشكلات ومعالجتها بشكل أوضح.
  • الأنظمة القانونية: يتزايد استخدام أنظمة تحليل المستندات المدعومة بالرؤية في اتخاذ القرارات القضائية. ويدعم الذكاء الاصطناعي للذكاء الاصطناعي النتائج العادلة ويسمح بالتدقيق في الأحكام الآلية. كما أنه يساعد المتخصصين القانونيين على فهم كيفية وصول نموذج الذكاء الاصطناعي إلى قراراته.
  • مراقبة الحياة البرية: غالباً ما تستخدم مصائد الكاميرات لمراقبة الحياة البرية وجمع البيانات عن أنواع الحيوانات. يمكن استخدام الذكاء الاصطناعي XAI لشرح كيفية تصنيف الذكاء الاصطناعي لهذه الأنواع في الصور. من خلال القيام بذلك، يمكن أن تكون جهود الحفظ أكثر موثوقية ودقة.

النقاط الرئيسية حول الذكاء الاصطناعي القابل للتفسير

يجعل الذكاء الاصطناعي القابل للتفسير من السهل فهم كيفية عمل أنظمة الذكاء الاصطناعي وسبب اتخاذها لقرارات معينة. الشفافية حول نماذج الذكاء الاصطناعي تبني الثقة والمساءلة. المعرفة قوة وتساعد على استخدام ابتكارات الذكاء الاصطناعي بشكل أكثر مسؤولية. في المجالات الحرجة مثل الرعاية الصحية والأمن والقيادة الذاتية والأنظمة القانونية، يمكن استخدام الذكاء الاصطناعي المبسط لمساعدة المطورين والمستخدمين على فهم تنبؤات الذكاء الاصطناعي وتحديد الأخطاء وضمان الاستخدام العادل والأخلاقي. من خلال جعل الذكاء الاصطناعي أكثر شفافية، تعمل XAI على سد الفجوة بين التكنولوجيا والثقة البشرية، مما يجعلها أكثر أمانًا وموثوقية للتطبيقات في العالم الحقيقي.

لمعرفة المزيد، قم بزيارة مستودع GitHub الخاص بنا وتفاعل مع مجتمعنا. استكشف تطبيقات الذكاء الاصطناعي في السيارات ذاتية القيادة والزراعة على صفحات الحلول الخاصة بنا. 🚀

شعار الفيسبوكشعار تويترشعار لينكد إنرمز نسخ الرابط

اقرأ المزيد في هذه الفئة

دعونا نبني المستقبل
من الذكاء الاصطناعي معا!

ابدأ رحلتك مع مستقبل التعلم الآلي