Yolo Vision Shenzhen
Shenzhen
Şimdi katılın
Sözlük

Anayasal Yapay Zeka

Anayasal Yapay Zeka'nın etik ilkeleri kullanarak modelleri insan değerleriyle nasıl uyumlu hale getirdiğini keşfedin. Ultralytics ile Bilgisayar Görüşünde güvenlik kontrollerini nasıl uygulayacağınızı öğrenin.

Anayasal AI, yapay zeka sistemlerini, bireysel çıktılara ilişkin kapsamlı insan geri bildirimlerine yalnızca güvenmek yerine, bir dizi üst düzey ilke (bir "anayasa") sağlayarak insan değerleriyle uyumlu hale getirmek için eğitme yöntemidir. Bu yaklaşım, esasen AI modeline, "yardımcı ol", "zararsız ol" ve "ayrımcılıktan kaçın" gibi önceden tanımlanmış bir dizi kurala dayalı olarak kendi davranışını eleştirmek ve revize etmek için öğretir. ayrımcılık yapma" gibi önceden tanımlanmış bir dizi kurala dayalı olarak kendi davranışını eleştirmek ve revize etmek için öğretir. Bu etik kuralları doğrudan eğitim sürecine dahil ederek, geliştiriciler manuel İnsan Geri Bildiriminden Güçlendirme Öğrenimi'ne (RLHF) bağlı olanlara göre daha güvenli, daha şeffaf ve ölçeklendirmesi daha kolay sistemler oluşturabilirler.

Anayasal Yapay Zeka Mekanizması

Constitutional AI'nın temel yeniliği, modellerin uyumunu otomatikleştiren iki aşamalı eğitim sürecinde yatmaktadır. Geleneksel denetimli öğrenmede, insanlar her doğru yanıtı etiketlemek zorundadır, ancak Constitutional AI, eğitim verilerini oluşturmak için modelin kendisini kullanır.

  1. Denetimli Öğrenme Aşaması: Model, istemlere yanıtlar üretir, ardından anayasal ilkelere dayalı olarak kendi çıktısını eleştirir. Kurallara daha iyi uyum sağlamak için yanıtı revize eder. Bu iyileştirilmiş veri kümesi daha sonra modeli ince ayarlamak için kullanılır ve modele kılavuzları doğal olarak takip etmesini öğretir.
  2. Pekiştirme Öğrenme Aşaması: Genellikle AI Geri Bildiriminden Pekiştirme Öğrenme (RLAIF) olarak adlandırılan bu aşama, insan etiketleyicinin yerini alır. AI, yanıt çiftleri oluşturur ve anayasaya en uygun olanı seçer. Bu tercih verileri, bir ödül modelini eğitir ve bu model daha sonra standart pekiştirme öğrenme teknikleri aracılığıyla istenen davranışları pekiştirir.

Bilgisayarla Görme ile İlgisi

Ancak Anayasal Yapay Zeka, Anthropic gibi kuruluşlar tarafından geliştirilen Büyük Dil Modelleri (LLM) bağlamında ortaya çıkmıştır. Anthropicgibi kuruluşlar tarafından geliştirilen Büyük Dil Modelleri (LLM) bağlamında ortaya çıkmış olsa da, ilkeleri

  • Etik Görüntü Oluşturma: Görüntü oluşturmak için kullanılan üretken yapay zeka araçları, şiddet içeren, nefret dolu veya telif hakkı bulunan görüntüler oluşturacak komutları reddetmek üzere "anayasal" olarak eğitilebilir. Bu, model ağırlıklarının kendilerinin güvenlik kısıtlamalarını kodlamasını sağlayarak zararlı görsel içeriklerin oluşturulmasını önler.
  • Güvenlik Açısından Kritik Görme Sistemleri: Otonom araçlarda, "anayasal" bir yaklaşım karar verme için hiyerarşik kurallar tanımlayabilir. Örneğin, "insan güvenliği trafik verimliliğinden önceliklidir" kuralı, karmaşık yol sahnelerini analiz ederken modeli yönlendirebilir ve nesne algılama sonuçlarının güvenliği öncelikli olarak yorumlanmasını sağlayabilir.

Görme Yapay Zekasında Politika Kontrollerinin Uygulanması

Tam Anayasal AI eğitimi karmaşık geri bildirim döngülerini içerirken, geliştiriciler çıkarım sırasında "anayasal kontroller" kavramını uygulayarak güvenlik politikalarına göre çıktıları filtreleyebilirler. Aşağıdaki örnek, YOLO26'yı detect için kullanmayı ve güvenilirlik anayasasını taklit ederek düşük güvenilirlikli algılamaları filtrelemek için bir güvenlik kuralı uygulamayı göstermektedir.

from ultralytics import YOLO

# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")

# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
    # Filter boxes with confidence > 0.5 to ensure reliability
    safe_boxes = [box for box in result.boxes if box.conf > 0.5]

    print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
    # Further processing would only use 'safe_boxes'

Anayasal AI ile Geleneksel RLHF Karşılaştırması

Anayasal AI'yı standart İnsan Geri Bildiriminden Güçlendirme Öğrenimi (RLHF)

  • Ölçeklenebilirlik: RLHF, model çıktılarını derecelendirmek için büyük miktarda insan emeği gerektirir, bu da pahalı ve yavaştır. Anayasal AI, bunu AI ajanları ile otomatikleştirerek yüksek ölçeklenebilirlik sağlar.
  • Şeffaflık: RLHF'de model, opak bir "ödül sinyali"nden (bir puan) öğrenir, bu da bir davranışın neden tercih edildiğini anlamayı zorlaştırır. Anayasal AI'da, eleştiri aşamasında kullanılan düşünce zinciri, akıl yürütmeyi açık ve belirli yazılı ilkelere kadar izlenebilir hale getirir.
  • Tutarlılık: İnsan değerlendiriciler tutarsız veya önyargılı olabilir. Yazılı bir anayasa, AI etiği için istikrarlı bir temel sağlar ve uyum sürecindeki öznelliği azaltır. .

Hizalamanın Geleceği

Modeller geliştikçe Yapay Genel Zeka (AGI), Anayasal Yapay Zeka gibi sağlam hizalama stratejilerinin önemi artmaktadır. Bu yöntemler aşağıdakiler için gereklidir gibi kuruluşların yeni ortaya çıkan standartlarına uymak NIST Yapay Zeka Güvenlik Enstitüsü.

Ultralytics , veri yönetimi ve model izlemeyi yönetmek için araçlar sunarak sorumlu AI sistemlerinin oluşturulmasını kolaylaştırır. Bu etik hususları AI geliştirme yaşam döngüsüne entegre ederek — veri toplamadan model dağıtımına kadar— kuruluşlar riskleri azaltabilir ve teknolojilerinin topluma olumlu katkı sağlamasını garanti edebilir.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve birlikte büyüyün

Şimdi katılın