يشير التحيز في الذكاء الاصطناعي إلى الأخطاء المنهجية والقابلة للتكرار داخل نظام الذكاء الاصطناعي والتي تؤدي إلى نتائج غير عادلة أو منحرفة أو تمييزية، وغالبًا ما تكون لصالح مجموعة على حساب مجموعات أخرى بناءً على خصائص اعتباطية. لا ينشأ هذا التحيز من نموذج الذكاء الاصطناعي نفسه الذي يتصرف بشكل خبيث، بل ينشأ عندما يتعلم النموذج ويكرر القيم الضمنية أو عدم المساواة التاريخية أو الاختلالات الإحصائية الموجودة في بيانات التدريب أو تصميم الخوارزميات أو الخيارات التي يتخذها البشر المشاركون في تطويره ونشره. إن معالجة تحيز الذكاء الاصطناعي أمر أساسي للتطوير الأخلاقي للذكاء الاصطناعي، حيث يؤثر بشكل حاسم على أداء النموذج وموثوقيته وثقة الجمهور، خاصة في المجالات الحساسة مثل الرؤية الحاسوبية.
مصادر تحيز Ai
إن تحيز الذكاء الاصطناعي ليس خاصية متأصلة في الذكاء الاصطناعي، ولكنه ينبع من العمليات البشرية والبيانات المستخدمة في بناء هذه الأنظمة. إن فهم الأصول هو مفتاح التخفيف من هذه المشكلة:
- تحيز مجموعة البيانات: هذا هو المصدر الأكثر شيوعًا، وينشأ عندما لا تكون البيانات المستخدمة في التدريب ممثلة للسكان أو السياق الواقعي الذي سيتم فيه نشر النموذج. ويشمل ذلك التحيز التاريخي (الذي يعكس التحيزات المجتمعية السابقة)، والتحيز في القياس (جمع البيانات غير المتناسق بين المجموعات)، والتحيز في التمثيل (عدم أخذ عينات كافية من مجموعات معينة)، والمشاكل في تصنيف البيانات حيث تعكس التعليقات التوضيحية وجهات نظر ذاتية. يعد فهم تأثير التحيز في مجموعة البيانات أمرًا بالغ الأهمية بالنسبة للذكاء الاصطناعي للرؤية.
- التحيز الخوارزمي: يمكن إدخال التحيز من قبل الخوارزمية نفسها، كما هو الحال عندما تقوم الخوارزمية بتحسين مقياس ما على نحو غير مقصود يضر بمجموعة معينة، أو عندما يضع تصميم النموذج افتراضات لا تنطبق على الجميع. على سبيل المثال، قد تعطي بعض خيارات التحسين أولوية للدقة الإجمالية على حساب عدالة المجموعات الفرعية للأقليات.
- التحيز البشري: يمكن أن تؤثر التحيزات البشرية للمطورين والمستخدمين الواعية أو غير الواعية على تصميم النماذج واختيار البيانات وتفسير النتائج وقرارات النشر، مما يؤدي إلى تضمين عدم العدالة في دورة حياة الذكاء الاصطناعي.
أمثلة من العالم الحقيقي
يمكن أن يظهر التحيز في الذكاء الاصطناعي في تطبيقات مختلفة، وأحيانًا ما يكون له عواقب وخيمة:
- أنظمةالتعرف على الوجه: أظهرت العديد من الدراسات، بما في ذلك الاختبارات المكثفة التي أجراها المعهد الوطني للمعايير والتكنولوجيا، أن بعض تقنيات التعرف على الوجه تُظهر معدلات دقة أقل بكثير للأفراد من بعض المجموعات السكانية (على سبيل المثال، الإناث ذوات البشرة الداكنة) مقارنةً بغيرهن (على سبيل المثال، الذكور ذوي البشرة الفاتحة). ينبع هذا التفاوت في كثير من الأحيان من مجموعات بيانات التدريب غير التمثيلية ويمكن أن يؤدي إلى سوء تحديد الهوية وعدم المساواة في المعاملة في تطبيقات تتراوح بين فتح الهواتف وإنفاذ القانون. تعمل منظمات مثل رابطة العدالة الخوارزمية بنشاط لتسليط الضوء على هذه التحيزات ومكافحتها.
- الذكاء الاصطناعي في الرعاية الصحية: يمكن أن ترث نماذج الذكاء الاصطناعي المستخدمة في مهام مثل تحليل الصور الطبية أو التنبؤ بمخاطر المرضى تحيزات من البيانات الصحية التاريخية. إذا تم تدريب أداة تشخيصية في المقام الأول على بيانات من مجموعة سكانية واحدة، فقد يكون أداؤها أقل دقة بالنسبة للمجموعات الممثلة تمثيلاً ناقصاً، مما قد يؤدي إلى تأخر التشخيص أو توصيات علاجية غير مناسبة. تسلط الأبحاث الضوء على مخاطر التحيز في الخوارزميات السريرية إذا لم يتم مراعاة الإنصاف بشكل فعال.
تمييز التحيز في Ai عن المفاهيم ذات الصلة
من المهم التفريق بين التحيز في الذكاء الاصطناعي، الذي يتعلق في المقام الأول بالعدالة والآثار الأخلاقية، والمفاهيم الأخرى ذات الصلة في التعلم الآلي (ML):
- تحيز مجموعة البيانات: في حين أن التحيز في مجموعة البيانات هو مصدر أساسي لتحيز الذكاء الاصطناعي، إلا أن تحيز مجموعة البيانات يشير تحديدًا إلى الطبيعة غير التمثيلية للبيانات نفسها. التحيز في الذكاء الاصطناعي هو النتيجة الأوسع نطاقاً للظلم المنهجي، والذي يمكن أن ينبع من تحيز مجموعة البيانات أو الخيارات الخوارزمية أو العوامل البشرية.
- التحيز الخوارزمي: يشير هذا على وجه التحديد إلى التحيز الذي يُدخله تصميم النموذج أو عملية التحسين في النموذج، على عكس التحيز الناشئ من البيانات فقط. وهو مصدر محتمل آخر يساهم في التحيز العام للذكاء الاصطناعي.
- المفاضلة بين التحيز والتباين: هذا مفهوم إحصائي أساسي في التعلم الآلي يصف التوتر بين بساطة النموذج (التحيز المرتفع، مما قد يؤدي إلى عدم ملاءمة النموذج) وتعقيد النموذج (التباين المرتفع، مما قد يؤدي إلى الإفراط في الملاءمة). بينما يُستخدم مصطلح "التحيز" هنا، فإنه يشير إلى خطأ النموذج بسبب الافتراضات المفرطة في التبسيط، وهو يختلف عن الآثار الأخلاقية أو الإنصاف المترتبة على تحيز الذكاء الاصطناعي.