اكتشف كيف تعمل الذكاء الاصطناعي الدستوري على مواءمة النماذج مع القيم الإنسانية باستخدام المبادئ الأخلاقية. تعلم كيفية تنفيذ فحوصات السلامة في الرؤية الحاسوبية باستخدام Ultralytics .
الذكاء الاصطناعي الدستوري هو طريقة لتدريب أنظمة الذكاء الاصطناعي على التوافق مع القيم الإنسانية من خلال تزويدها بمجموعة من المبادئ عالية المستوى - "دستور" - بدلاً من الاعتماد فقط على ردود الفعل البشرية الواسعة النطاق على المخرجات الفردية. هذا النهج يعلم نموذج الذكاء الاصطناعي بشكل أساسي كيفية نقد ومراجعة سلوكه بناءً على مجموعة محددة مسبقًا من القواعد، مثل "كن مفيدًا" و"كن غير ضار" و"تجنب التمييز". من خلال دمج هذه المبادئ التوجيهية الأخلاقية مباشرة في عملية التدريب، يمكن للمطورين إنشاء أنظمة أكثر أمانًا وشفافية وسهولة في التوسع من تلك التي تعتمد على التعلم المعزز من ردود الفعل البشرية (RLHF).
يكمن الابتكار الأساسي في الذكاء الاصطناعي الدستوري في عملية التدريب ذات المرحلتين، والتي تعمل على أتمتة مواءمة النماذج. على عكس التعلم التقليدي الخاضع للإشراف، حيث يتعين على البشر تصنيف كل إجابة صحيحة، يستخدم الذكاء الاصطناعي الدستوري النموذج نفسه لتوليد بيانات التدريب.
بينما نشأت الذكاء الاصطناعي الدستوري في سياق نماذج اللغة الكبيرة (LLM) التي طورتها منظمات مثل Anthropic، فإن مبادئها تزداد أهمية بالنسبة لمهام التعلم الآلي الأوسع نطاقًا، بما في ذلك الرؤية الحاسوبية (CV).
في حين أن التدريب الكامل على الذكاء الاصطناعي الدستوري ينطوي على حلقات تغذية مرتدة معقدة، يمكن للمطورين تطبيق مفهوم "الضوابط الدستورية" أثناء الاستدلال لتصفية المخرجات بناءً على سياسات السلامة . يوضح المثال التالي استخدام YOLO26 detect وتطبيق قاعدة أمان لتصفية عمليات الكشف منخفضة الثقة، محاكاةً دستور الموثوقية.
from ultralytics import YOLO
# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
# Filter boxes with confidence > 0.5 to ensure reliability
safe_boxes = [box for box in result.boxes if box.conf > 0.5]
print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
# Further processing would only use 'safe_boxes'
من المهم التمييز بين الذكاء الاصطناعي الدستوري والتعلم المعزز القياسي من ردود فعل البشر (RLHF).
مع تطور النماذج نحو الذكاء الاصطناعي العام (AGI)، تزداد أهمية استراتيجيات المواءمة القوية مثل الذكاء الاصطناعي المؤسسي. هذه الأساليب ضرورية من أجل الامتثال للمعايير الناشئة من هيئات مثل معهد NIST لسلامة الذكاء الاصطناعي العام.
توفر Ultralytics أدوات لإدارة حوكمة البيانات ومراقبة النماذج، مما يسهل إنشاء أنظمة ذكاء اصطناعي مسؤولة. من خلال دمج هذه الاعتبارات الأخلاقية في دورة حياة تطوير الذكاء الاصطناعي — من جمع البيانات إلى نشر النماذج— يمكن للمؤسسات التخفيف من المخاطر وضمان أن تساهم تقنياتها بشكل إيجابي في المجتمع.