مسرد المصطلحات

التحيز في الذكاء الاصطناعي

اكتشف كيفية تحديد التحيز في أنظمة الذكاء الاصطناعي والتخفيف من حدته ومنعه من خلال الاستراتيجيات والأدوات والأمثلة الواقعية لتطوير الذكاء الاصطناعي الأخلاقي.

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

يشير التحيز في الذكاء الاصطناعي إلى الأخطاء المنهجية والمتكررة في نظام الذكاء الاصطناعي التي تؤدي إلى نتائج غير عادلة، وتفضيل مجموعة تعسفية من المستخدمين على الآخرين. وهو ينشأ عندما يعكس نموذج الذكاء الاصطناعي القيم الضمنية أو التحيزات الموجودة في البيانات التي تم تدريبه عليها، أو الخوارزميات المستخدمة، أو القرارات التي اتخذها البشر المشاركون في تطويره. إن معالجة التحيز في الذكاء الاصطناعي أمر بالغ الأهمية لضمان التطوير والنشر الأخلاقي لتقنيات الذكاء الاصطناعي، مما يؤثر على أداء النموذج وموثوقيته وثقة الجمهور، خاصة في التطبيقات المهمة مثل الرؤية الحاسوبية.

مصادر تحيز Ai

لا ينشأ تحيز الذكاء الاصطناعي عادةً من الذكاء الاصطناعي نفسه، بل من البيانات والعمليات المستخدمة في إنشائه. وتشمل المصادر الرئيسية ما يلي:

  • التحيز في مجموعة البيانات: هذا هو المحرك الأساسي الذي يحدث عندما لا تمثل بيانات التدريب سيناريوهات العالم الحقيقي أو التركيبة السكانية التي سيواجهها الذكاء الاصطناعي. وقد ينطوي ذلك على تمثيل ناقص لمجموعات معينة، أو طرق جمع البيانات المنحرفة، أو أخطاء في تصنيف البيانات. يمكنك معرفة المزيد حول تأثير مجموعات البيانات في منشور المدونة الخاص بنا حول فهم تحيز الذكاء الاصطناعي وتحيز مجموعة البيانات.
  • التحيز الخوارزمي: يمكن إدخال التحيز من خلال اختيار الخوارزمية أو كيفية تصميمها. قد تفضل خوارزميات معينة بطبيعتها أنماطاً أو نتائج محددة، مما يؤدي إلى تنبؤات متحيزة حتى مع وجود بيانات متوازنة.
  • التحيز البشري: يمكن أن تؤثر التحيزات البشرية الواعية أو غير الواعية للمطورين على اختيار البيانات، وهندسة الميزات، ومقاييس تقييم النماذج، وقرارات النشر، مما يؤدي إلى تضمين عدم الإنصاف في النظام. للتعمق أكثر في اعتبارات الإنصاف، راجع أخلاقيات الذكاء الاصطناعي.

أمثلة من العالم الحقيقي

يمكن أن يظهر التحيز في الذكاء الاصطناعي في تطبيقات مختلفة، مما يؤدي إلى عواقب وخيمة:

  1. أنظمةالتعرف على الوجه: غالبًا ما أظهرت النماذج المبكرة للتعرف على الوجه دقة أقل بالنسبة للأفراد ذوي البشرة الداكنة أو النساء، ويرجع ذلك في المقام الأول إلى أن مجموعات بيانات التدريب كانت في الغالب تضم ذكورًا ذوي بشرة فاتحة. يثير هذا التفاوت مخاوف بشأن العدالة في تطبيقات مثل الأمن والتحقق من الهوية. وقد وثقت الدراسات التي أجرتها منظمات مثل المعهد الوطني للمعايير والتكنولوجيا والابتكار في الولايات المتحدة الأمريكية هذه الاختلافات في الأداء.
  2. الذكاء الاصطناعي في الرعاية الصحية: قد يكون أداء نماذج الذكاء الاصطناعي المستخدمة في تحليل الصور الطبية أقل فعالية بالنسبة للمجموعات السكانية الممثلة تمثيلاً ناقصاً في بيانات التدريب. على سبيل المثال، قد تفشل خوارزمية الكشف عن سرطان الجلد المدربة بشكل أساسي على البشرة الفاتحة في تحديد سرطان الجلد على البشرة الداكنة بدقة، مما قد يؤخر التشخيص والعلاج.

تمييز التحيز في Ai عن المفاهيم ذات الصلة

من المهم التفريق بين التحيز في الذكاء الاصطناعي والمصطلحات المشابهة:

  • تحيز مجموعة البيانات: يشير هذا على وجه التحديد إلى مشاكل في البيانات المستخدمة في التدريب (على سبيل المثال، نقص التنوع). وهو سبب رئيسي للتحيز في الذكاء الاصطناعي، والذي يصف الظلم المنهجي الناتج في سلوك النموذج.
  • التحيز الخوارزمي: يركز هذا على التحيز الناجم عن بنية النموذج أو عملية التعلم نفسها، وهو سبب محتمل آخر لظاهرة التحيز الأوسع نطاقاً في الذكاء الاصطناعي.
  • المفاضلة بين التحيز والتباين: هذا مفهوم أساسي في التعلم الآلي (ML) يتعلق بخطأ النموذج. يشير مصطلح "التحيز" هنا إلى الخطأ الناجم عن الافتراضات غير الصحيحة في خوارزمية التعلم (مما يؤدي إلى عدم الملاءمة)، وهو يختلف عن الآثار المجتمعية أو الأخلاقية للتحيز في الذكاء الاصطناعي.

معالجة تحيز الذكاء الاصطناعي

يتطلب التخفيف من تحيز الذكاء الاصطناعي اتباع نهج متعدد الأوجه طوال دورة حياة تطوير الذكاء الاصطناعي:

  • بيانات متنوعة وممثلة: يعد جمع مجموعات بيانات عالية الجودة ومتنوعة مثل تلك الموجودة في مجموعة بياناتUltralytics أمرًا أساسيًا. كما يمكن أن تساعد تقنيات مثل زيادة البيانات في تحسين التمثيل.
  • مقاييس الإنصاف والتدقيق: من الضروري تقييم النماذج ليس فقط من حيث الدقة الإجمالية ولكن أيضًا من حيث الأداء عبر مجموعات فرعية مختلفة باستخدام مقاييس الإنصاف. هناك أدوات وأطر عمل آخذة في الظهور للمساعدة في تدقيق النماذج من حيث التحيز.
  • الذكاء الاصطناعي القابل للتفسير (XAI): يمكن أن يساعد فهم سبب قيام النموذج بتنبؤات معينة في تحديد السلوك المتحيز وتصحيحه.
  • الفرق الشاملة: فرق التطوير المتنوعة أقل عرضة للتغاضي عن التحيزات المحتملة.

تقدم منصات مثل Ultralytics HUB أدوات لتدريب النماذج المخصصة وإدارتها، مما يسمح للمطورين بتنظيم مجموعات البيانات بعناية ومراقبة Ultralytics YOLO أداء النموذج، مما يساهم في تطوير أنظمة ذكاء اصطناعي أكثر عدالة. إن بناء الوعي ودمج مبادئ العدالة في الذكاء الاصطناعي أمر حيوي لخلق ذكاء اصطناعي يفيد الجميع بشكل منصف.

قراءة الكل