Anayasal Yapay Zeka'nın etik ilkeleri kullanarak modelleri insan değerleriyle nasıl uyumlu hale getirdiğini keşfedin. Ultralytics ile Bilgisayar Görüşünde güvenlik kontrollerini nasıl uygulayacağınızı öğrenin.
Anayasal AI, yapay zeka sistemlerini, bireysel çıktılara ilişkin kapsamlı insan geri bildirimlerine yalnızca güvenmek yerine, bir dizi üst düzey ilke (bir "anayasa") sağlayarak insan değerleriyle uyumlu hale getirmek için eğitme yöntemidir. Bu yaklaşım, esasen AI modeline, "yardımcı ol", "zararsız ol" ve "ayrımcılıktan kaçın" gibi önceden tanımlanmış bir dizi kurala dayalı olarak kendi davranışını eleştirmek ve revize etmek için öğretir. ayrımcılık yapma" gibi önceden tanımlanmış bir dizi kurala dayalı olarak kendi davranışını eleştirmek ve revize etmek için öğretir. Bu etik kuralları doğrudan eğitim sürecine dahil ederek, geliştiriciler manuel İnsan Geri Bildiriminden Güçlendirme Öğrenimi'ne (RLHF) bağlı olanlara göre daha güvenli, daha şeffaf ve ölçeklendirmesi daha kolay sistemler oluşturabilirler.
Constitutional AI'nın temel yeniliği, modellerin uyumunu otomatikleştiren iki aşamalı eğitim sürecinde yatmaktadır. Geleneksel denetimli öğrenmede, insanlar her doğru yanıtı etiketlemek zorundadır, ancak Constitutional AI, eğitim verilerini oluşturmak için modelin kendisini kullanır.
Ancak Anayasal Yapay Zeka, Anthropic gibi kuruluşlar tarafından geliştirilen Büyük Dil Modelleri (LLM) bağlamında ortaya çıkmıştır. Anthropicgibi kuruluşlar tarafından geliştirilen Büyük Dil Modelleri (LLM) bağlamında ortaya çıkmış olsa da, ilkeleri
Tam Anayasal AI eğitimi karmaşık geri bildirim döngülerini içerirken, geliştiriciler çıkarım sırasında "anayasal kontroller" kavramını uygulayarak güvenlik politikalarına göre çıktıları filtreleyebilirler. Aşağıdaki örnek, YOLO26'yı detect için kullanmayı ve güvenilirlik anayasasını taklit ederek düşük güvenilirlikli algılamaları filtrelemek için bir güvenlik kuralı uygulamayı göstermektedir.
from ultralytics import YOLO
# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
# Filter boxes with confidence > 0.5 to ensure reliability
safe_boxes = [box for box in result.boxes if box.conf > 0.5]
print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
# Further processing would only use 'safe_boxes'
Anayasal AI'yı standart İnsan Geri Bildiriminden Güçlendirme Öğrenimi (RLHF)
Modeller geliştikçe Yapay Genel Zeka (AGI), Anayasal Yapay Zeka gibi sağlam hizalama stratejilerinin önemi artmaktadır. Bu yöntemler aşağıdakiler için gereklidir gibi kuruluşların yeni ortaya çıkan standartlarına uymak NIST Yapay Zeka Güvenlik Enstitüsü.
Ultralytics , veri yönetimi ve model izlemeyi yönetmek için araçlar sunarak sorumlu AI sistemlerinin oluşturulmasını kolaylaştırır. Bu etik hususları AI geliştirme yaşam döngüsüne entegre ederek — veri toplamadan model dağıtımına kadar— kuruluşlar riskleri azaltabilir ve teknolojilerinin topluma olumlu katkı sağlamasını garanti edebilir.