شيك أخضر
تم نسخ الرابط إلى الحافظة

يهدف الذكاء الاصطناعي الدستوري إلى مواءمة نماذج الذكاء الاصطناعي مع القيم الإنسانية

تعلّم كيف يساعد الذكاء الاصطناعي الدستوري النماذج على اتباع القواعد الأخلاقية واتخاذ قرارات أكثر أماناً ودعم العدالة في أنظمة اللغة والرؤية الحاسوبية.

سرعان ما أصبح الذكاء الاصطناعي (AI) جزءًا أساسيًا من حياتنا اليومية. حيث يتم دمجه في الأدوات المستخدمة في مجالات مثل الرعاية الصحية والتوظيف والتمويل والسلامة العامة. ومع توسع هذه الأنظمة، تتزايد المخاوف بشأن أخلاقياتها وموثوقيتها.

على سبيل المثال، في بعض الأحيان، قد تؤدي أنظمة الذكاء الاصطناعي التي يتم إنشاؤها دون مراعاة العدالة أو السلامة إلى نتائج متحيزة أو غير موثوقة. ويرجع ذلك إلى أن العديد من النماذج لا تزال تفتقر إلى طريقة واضحة تعكس القيم الإنسانية وتتماشى معها.

ولمواجهة هذه التحديات، يستكشف الباحثون الآن نهجًا يُعرف باسم الذكاء الاصطناعي الدستوري. ببساطة، يقدم هذا النهج مجموعة مكتوبة من المبادئ في عملية تدريب النموذج. وتساعد هذه المبادئ النموذج على الحكم على سلوكه الخاص، والاعتماد بشكل أقل على التغذية الراجعة البشرية، وجعل الاستجابات أكثر أماناً وأسهل فهماً.

حتى الآن، تم استخدام هذا النهج في الغالب فيما يتعلق بالنماذج اللغوية الكبيرة (LLMs). ومع ذلك، يمكن أن تساعد نفس البنية في توجيه أنظمة الرؤية الحاسوبية لاتخاذ قرارات أخلاقية أثناء تحليل البيانات المرئية. 

في هذه المقالة، سنستكشف كيفية عمل الذكاء الاصطناعي الدستوري، ونلقي نظرة على أمثلة واقعية، ونناقش تطبيقاته المحتملة في أنظمة الرؤية الحاسوبية.

_w_f_reserved_herit
الشكل 1. خصائص الذكاء الاصطناعي الدستوري. الصورة للمؤلف.

ما هو الذكاء الاصطناعي الدستوري؟

الذكاء الاصطناعي الدستوري هو أسلوب تدريب نموذجي يوجه سلوك نماذج الذكاء الاصطناعي من خلال توفير مجموعة واضحة من القواعد الأخلاقية. تعمل هذه القواعد كمدونة سلوك. فبدلاً من الاعتماد على النموذج لاستنتاج ما هو مقبول، فإنه يتبع مجموعة مكتوبة من المبادئ التي تشكل استجاباته أثناء التدريب.

تم تقديم هذا المفهوم من قبل Anthropicوهي شركة أبحاث تركز على السلامة في مجال الذكاء الاصطناعي والتي طورت عائلة كلود LLM كطريقة لجعل أنظمة الذكاء الاصطناعي أكثر إشرافاً ذاتياً في اتخاذ قراراتها. 

فبدلاً من الاعتماد فقط على التغذية الراجعة البشرية، يتعلم النموذج نقد وتنقيح استجاباته الخاصة بناءً على مجموعة من المبادئ المحددة مسبقاً. يشبه هذا النهج النظام القانوني، حيث يرجع القاضي إلى الدستور قبل إصدار الحكم.

في هذه الحالة، يصبح النموذج هو الحكم والطالب في آنٍ واحد، حيث يستخدم نفس مجموعة القواعد لمراجعة سلوكه وتحسينه. تعزز هذه العملية مواءمة نموذج الذكاء الاصطناعي وتدعم تطوير أنظمة ذكاء اصطناعي آمنة ومسؤولة.

كيف يعمل الذكاء الاصطناعي الدستوري؟

يتمثل الهدف من الذكاء الاصطناعي الدستوري في تعليم نموذج الذكاء الاصطناعي كيفية اتخاذ قرارات آمنة وعادلة من خلال اتباع مجموعة واضحة من القواعد المكتوبة. فيما يلي تفصيل بسيط لكيفية عمل هذه العملية:

  • تحديد الدستور: يتم وضع قائمة مكتوبة بالمبادئ الأخلاقية التي يجب أن يتبعها النموذج. يحدد الدستور ما يجب أن يتجنبه الذكاء الاصطناعي وما هي القيم التي يجب أن يعكسها.

  • التدريب مع تحت إشراف أمثلة: يُعرض على النموذج عينات من الاستجابات التي تتبع الدستور. تساعد هذه الأمثلة الذكاء الاصطناعي على فهم شكل السلوك المقبول.

  • التعرف على الأنماط وتطبيقها: بمرور الوقت، يبدأ النموذج بالتعرف على هذه الأنماط. يتعلم تطبيق نفس القيم عند الإجابة عن أسئلة جديدة أو التعامل مع مواقف جديدة.

  • نقد وتنقيح المخرجات: يقوم النموذج بمراجعة استجاباته الخاصة وتعديلها بناءً على الدستور. تساعده مرحلة المراجعة الذاتية هذه على التحسين دون الاعتماد فقط على التغذية الراجعة البشرية.

  • إنتاج استجابات متناسقة وأكثر أماناً: يتعلم النموذج من قواعد متسقة، مما يساعد على تقليل التحيز وتحسين الموثوقية في الاستخدام الواقعي. هذا النهج يجعلها أكثر توافقاً مع القيم البشرية وأسهل في الحكم.
_w_f_reserved_herit
الشكل 2. نظرة عامة على استخدام الذكاء الاصطناعي الدستوري لتدريب النماذج.

المبادئ الأساسية للتصميم الأخلاقي للذكاء الاصطناعي

لكي يتبع نموذج الذكاء الاصطناعي القواعد الأخلاقية، يجب تحديد هذه القواعد بوضوح أولاً. عندما يتعلق الأمر بالذكاء الاصطناعي الدستوري، تستند هذه القواعد إلى مجموعة من المبادئ الأساسية. 

على سبيل المثال، إليك أربعة مبادئ تشكل أساس دستور فعال للذكاء الاصطناعي:

  • الشفافية: يجب أن يكون من السهل فهم كيفية توصل النموذج إلى إجابة ما. إذا كانت الإجابة مبنية على حقائق أو تقديرات أو أنماط معينة، فستكون شفافة للمستخدم. هذا يبني الثقة ويساعد الناس على الحكم على ما إذا كان بإمكانهم الاعتماد على مخرجات النموذج.

  • المساواة: يجب أن تظل الإجابات متسقة بين مختلف المستخدمين. يجب ألا يغير النموذج مخرجاته بناءً على اسم الشخص أو خلفيته أو موقعه. تساعد المساواة على منع التحيز وتعزز المساواة في المعاملة.

  • المساءلة: يجب أن تكون هناك طريقة لتتبع كيفية تدريب النموذج وما الذي أثر على سلوكه. عندما يحدث خطأ ما، يجب أن تكون الفرق قادرة على تحديد السبب وتحسينه. وهذا يدعم الشفافية والمساءلة على المدى الطويل.

  • السلامة: تحتاج النماذج إلى تجنب إنتاج محتوى يمكن أن يسبب ضررًا. إذا أدى الطلب إلى مخرجات خطرة أو غير آمنة، يجب أن يتعرف النظام على ذلك ويتوقف. هذا يحمي كلاً من المستخدم وسلامة النظام.

أمثلة على الذكاء الاصطناعي الدستوري في النماذج اللغوية الكبيرة

لقد انتقل الذكاء الاصطناعي المؤسسي من النظرية إلى الممارسة، ويُستخدم الآن ببطء في النماذج الكبيرة التي تتفاعل مع ملايين المستخدمين. ومن أكثر الأمثلة شيوعًا مثالان من أكثر الأمثلة شيوعًا هما: LLMs من OpenAI و Anthropic. 

وعلى الرغم من أن كلا المؤسستين قد اتبعتا نهجاً مختلفاً لإنشاء أنظمة ذكاء اصطناعي أكثر أخلاقية، إلا أنهما تشتركان في فكرة مشتركة: تعليم النموذج اتباع مجموعة من المبادئ التوجيهية المكتوبة. دعونا نلقي نظرة فاحصة على هذه الأمثلة.

نهج OpenAI للذكاء الاصطناعي الدستوري

قدمت OpenAI وثيقة تسمى مواصفات النموذج كجزء من عملية تدريب نماذج ChatGPT الخاصة بها. تعمل هذه الوثيقة كدستور. فهي تحدد ما يجب أن يهدف إليه النموذج في استجاباته، بما في ذلك قيم مثل المساعدة والصدق والأمان. كما أنها تحدد ما يعتبر مخرجات ضارة أو مضللة. 

تم استخدام هذا الإطار لضبط نماذج OpenAI من خلال تصنيف الاستجابات وفقًا لمدى تطابقها مع القواعد. وبمرور الوقت، ساعد ذلك في تشكيل ChatGPT بحيث تنتج مخرجات أقل ضرراً وتتماشى بشكل أفضل مع ما يريده المستخدمون بالفعل. 

_w_f_reserved_herit
الشكل 3. مثال على ChatGPT باستخدام مواصفات نموذج OpenAI للاستجابة.

نماذج الذكاء الاصطناعي الأخلاقي Anthropic

يستند الدستور الذي يتبعه نموذج Anthropicكلود، إلى مبادئ أخلاقية من مصادر مثل الإعلان العالمي لحقوق الإنسان، وإرشادات المنصة مثل شروط خدمة آبل، وأبحاث مختبرات الذكاء الاصطناعي الأخرى. تساعد هذه المبادئ على ضمان أن تكون استجابات كلود آمنة وعادلة ومتوافقة مع القيم الإنسانية المهمة.

يستخدم كلود أيضاً عملية التعلُّم المعزز من ملاحظات الذكاء الاصطناعي (RLAIF)، حيث يقوم بمراجعة وتعديل استجاباته الخاصة بناءً على هذه الإرشادات الأخلاقية، بدلاً من الاعتماد على الملاحظات البشرية. تُمكِّن هذه العملية كلود من التحسُّن بمرور الوقت، مما يجعله أكثر قابلية للتطوير وأفضل في تقديم إجابات مفيدة وأخلاقية وغير ضارة، حتى في المواقف الصعبة.

_w_f_reserved_herit
الشكل 4. فهم مقاربة Anthropicللذكاء الاصطناعي الدستوري.

تطبيق الذكاء الاصطناعي الدستوري على الرؤية الحاسوبية

نظرًا لأن الذكاء الاصطناعي الدستوري يؤثر بشكل إيجابي على كيفية تصرف النماذج اللغوية، فمن الطبيعي أن يؤدي ذلك إلى طرح السؤال: هل يمكن لنهج مماثل أن يساعد الأنظمة القائمة على الرؤية على الاستجابة بشكل أكثر عدلاً وأماناً؟ 

في حين أن نماذج الرؤية الحاسوبية تعمل مع الصور بدلاً من النصوص، فإن الحاجة إلى التوجيه الأخلاقي لا تقل أهمية. على سبيل المثال، تُعد العدالة والتحيز من العوامل الرئيسية التي يجب أخذها في الاعتبار، حيث يجب تدريب هذه الأنظمة على معاملة الجميع على قدم المساواة وتجنب النتائج الضارة أو غير العادلة عند تحليل البيانات المرئية.

_w_f_reserved_herit
الشكل 5. التحديات الأخلاقية المتعلقة بالرؤية الحاسوبية. الصورة للمؤلف.

في الوقت الحالي، لا يزال استخدام أساليب الذكاء الاصطناعي الدستوري في الرؤية الحاسوبية قيد الاستكشاف ولا يزال في مراحله الأولى، مع استمرار الأبحاث في هذا المجال.

على سبيل المثال، قدمت شركة Meta مؤخرًا إطار عمل CLUE، وهو إطار عمل يطبق المنطق الشبيه بالدستور على مهام سلامة الصور. فهو يحوّل قواعد السلامة العامة إلى خطوات دقيقة يمكن أن يتبعها الذكاء الاصطناعي متعدد الوسائط (أنظمة الذكاء الاصطناعي التي تعالج وتفهم أنواعاً متعددة من البيانات). وهذا يساعد النظام على التفكير بشكل أوضح ويقلل من النتائج الضارة. 

كما أن CLUE يجعل أحكام سلامة الصور أكثر كفاءة من خلال تبسيط القواعد المعقدة، مما يسمح لنماذج الذكاء الاصطناعي بالتصرف بسرعة ودقة دون الحاجة إلى مدخلات بشرية مكثفة. باستخدام مجموعة من المبادئ التوجيهية، تجعل CLUE أنظمة تعديل الصور أكثر قابلية للتطوير مع ضمان نتائج عالية الجودة.

الوجبات الرئيسية

مع تولي أنظمة الذكاء الاصطناعي المزيد من المسؤولية، يتحول التركيز من مجرد ما يمكن أن تفعله إلى ما يجب أن تفعله. هذا التحول أساسي لأن هذه الأنظمة تُستخدم في مجالات تؤثر بشكل مباشر على حياة الناس، مثل الرعاية الصحية وإنفاذ القانون والتعليم. 

لضمان عمل أنظمة الذكاء الاصطناعي بشكل مناسب وأخلاقي، فإنها تحتاج إلى أساس متين ومتسق. يجب أن يعطي هذا الأساس الأولوية للإنصاف والسلامة والثقة. 

يمكن للدستور المكتوب أن يوفر هذا الأساس أثناء التدريب، ويوجه عملية اتخاذ القرار في النظام. كما يمكن أن يوفر للمطورين إطار عمل لمراجعة وتعديل سلوك النظام بعد النشر، مما يضمن استمراره في التوافق مع القيم التي صُمم من أجلها ويسهل التكيف مع ظهور تحديات جديدة.

انضم إلى مجتمعنا المتنامي اليوم! تعمّق في الذكاء الاصطناعي من خلال استكشاف مستودع GitHub الخاص بنا. هل تتطلع إلى إنشاء مشاريع الرؤية الحاسوبية الخاصة بك؟ استكشف خيارات الترخيص لدينا. تعرّف على كيفية تحسين الرؤية الحاسوبية في مجال الرعاية الصحية واستكشف تأثير الذكاء الاصطناعي في التصنيع من خلال زيارة صفحات الحلول الخاصة بنا!

شعار LinkedInشعار تويترشعار الفيسبوكرمز نسخ الرابط

اقرأ المزيد في هذه الفئة

دعونا نبني المستقبل
من الذكاء الاصطناعي معا!

ابدأ رحلتك مع مستقبل التعلم الآلي