Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

الذكاء الاصطناعي الدستوري

اكتشف كيف تعمل الذكاء الاصطناعي الدستوري على مواءمة النماذج مع القيم الإنسانية باستخدام المبادئ الأخلاقية. تعلم كيفية تنفيذ فحوصات السلامة في الرؤية الحاسوبية باستخدام Ultralytics .

الذكاء الاصطناعي الدستوري هو طريقة لتدريب أنظمة الذكاء الاصطناعي على التوافق مع القيم الإنسانية من خلال تزويدها بمجموعة من المبادئ عالية المستوى - "دستور" - بدلاً من الاعتماد فقط على ردود الفعل البشرية الواسعة النطاق على المخرجات الفردية. هذا النهج يعلم نموذج الذكاء الاصطناعي بشكل أساسي كيفية نقد ومراجعة سلوكه بناءً على مجموعة محددة مسبقًا من القواعد، مثل "كن مفيدًا" و"كن غير ضار" و"تجنب التمييز". من خلال دمج هذه المبادئ التوجيهية الأخلاقية مباشرة في عملية التدريب، يمكن للمطورين إنشاء أنظمة أكثر أمانًا وشفافية وسهولة في التوسع من تلك التي تعتمد على التعلم المعزز من ردود الفعل البشرية (RLHF).

آلية الذكاء الاصطناعي الدستوري

يكمن الابتكار الأساسي في الذكاء الاصطناعي الدستوري في عملية التدريب ذات المرحلتين، والتي تعمل على أتمتة مواءمة النماذج. على عكس التعلم التقليدي الخاضع للإشراف، حيث يتعين على البشر تصنيف كل إجابة صحيحة، يستخدم الذكاء الاصطناعي الدستوري النموذج نفسه لتوليد بيانات التدريب.

  1. مرحلة التعلم الخاضع للإشراف: يقوم النموذج بإنشاء استجابات للمطالبات، ثم ينتقد ناتجه بناءً على المبادئ الدستورية. ويقوم بمراجعة الاستجابة لتتوافق بشكل أفضل مع القواعد. ثم يتم استخدام مجموعة البيانات المُحسّنة لضبط النموذج، وتعليمه اتباع الإرشادات بشكل متأصل.
  2. مرحلة التعلم المعزز: هذه المرحلة، التي غالبًا ما تسمى التعلم المعزز من ردود فعل الذكاء الاصطناعي (RLAIF)، تحل محل المصنف البشري. يولد الذكاء الاصطناعي أزواجًا من الاستجابات ويختار أفضلها من حيث التوافق مع الدستور. تدرب بيانات التفضيل هذه نموذج المكافأة، الذي يعزز بعد ذلك السلوكيات المرغوبة عبر تقنيات التعلم المعزز القياسية.

الصلة بالرؤية الحاسوبية

بينما نشأت الذكاء الاصطناعي الدستوري في سياق نماذج اللغة الكبيرة (LLM) التي طورتها منظمات مثل Anthropic، فإن مبادئها تزداد أهمية بالنسبة لمهام التعلم الآلي الأوسع نطاقًا، بما في ذلك الرؤية الحاسوبية (CV).

  • إنشاء صور أخلاقية: يمكن تدريب أدوات الذكاء الاصطناعي التوليدي لإنشاء الصور "دستوريًا" على رفض المطالبات التي من شأنها إنشاء صور عنيفة أو تحرض على الكراهية أو محمية بحقوق النشر. وهذا يضمن أن النماذج نفسها ترمز لقيود السلامة، مما يمنع إنشاء محتوى مرئي ضار.
  • أنظمة الرؤية الحيوية للسلامة: في المركبات ذاتية القيادة، يمكن أن يحدد النهج "الدستوري" قواعد هرمية لاتخاذ القرارات. على سبيل المثال، يمكن أن توجه القاعدة التي تنص على "أولوية سلامة الإنسان على كفاءة حركة المرور" النموذج عند تحليل مشاهد الطرق المعقدة، مما يضمن تفسير نتائج اكتشاف الأجسام باعتبار السلامة أولوية.

تنفيذ عمليات التحقق من السياسات في Vision AI

في حين أن التدريب الكامل على الذكاء الاصطناعي الدستوري ينطوي على حلقات تغذية مرتدة معقدة، يمكن للمطورين تطبيق مفهوم "الضوابط الدستورية" أثناء الاستدلال لتصفية المخرجات بناءً على سياسات السلامة . يوضح المثال التالي استخدام YOLO26 detect وتطبيق قاعدة أمان لتصفية عمليات الكشف منخفضة الثقة، محاكاةً دستور الموثوقية.

from ultralytics import YOLO

# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")

# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
    # Filter boxes with confidence > 0.5 to ensure reliability
    safe_boxes = [box for box in result.boxes if box.conf > 0.5]

    print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
    # Further processing would only use 'safe_boxes'

الذكاء الاصطناعي الدستوري مقابل RLHF التقليدي

من المهم التمييز بين الذكاء الاصطناعي الدستوري والتعلم المعزز القياسي من ردود فعل البشر (RLHF).

  • قابلية التوسع: تتطلب RLHF كميات هائلة من العمالة البشرية لتقييم مخرجات النموذج، وهو أمر مكلف وبطيء. تعمل الذكاء الاصطناعي الدستوري على أتمتة هذا الأمر باستخدام وكلاء الذكاء الاصطناعي، مما يجعله قابلاً للتوسع بدرجة كبيرة.
  • الشفافية: في RLHF، يتعلم النموذج من "إشارة مكافأة" غير شفافة (نتيجة)، مما يجعل من الصعب معرفة سبب تفضيل سلوك معين. في الذكاء الاصطناعي الدستوري، فإن سلسلة الأفكار المستخدمة خلال مرحلة النقد تجعل الاستدلال واضحًا وقابلًا للتتبع إلى مبادئ مكتوبة محددة.
  • الاتساق: يمكن أن يكون المقيّمون البشريون غير متسقين أو متحيزين. يوفر الدستور المكتوب أساسًا مستقرًا لأخلاقيات الذكاء الاصطناعي، مما يقلل من الذاتية في عملية المواءمة.

مستقبل التوافق

مع تطور النماذج نحو الذكاء الاصطناعي العام (AGI)، تزداد أهمية استراتيجيات المواءمة القوية مثل الذكاء الاصطناعي المؤسسي. هذه الأساليب ضرورية من أجل الامتثال للمعايير الناشئة من هيئات مثل معهد NIST لسلامة الذكاء الاصطناعي العام.

توفر Ultralytics أدوات لإدارة حوكمة البيانات ومراقبة النماذج، مما يسهل إنشاء أنظمة ذكاء اصطناعي مسؤولة. من خلال دمج هذه الاعتبارات الأخلاقية في دورة حياة تطوير الذكاء الاصطناعي — من جمع البيانات إلى نشر النماذج— يمكن للمؤسسات التخفيف من المخاطر وضمان أن تساهم تقنياتها بشكل إيجابي في المجتمع.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن