Yapay Zekada Adalet
Ultralytics ile yapay zekada adaleti keşfedin. Ultralytics kullanarak önyargıyı azaltmayı, adil sonuçlar elde etmeyi ve etik nesne algılamayı nasıl uygulayacağınızı öğrenin.
AI'da adalet,
Yapay Zeka (AI) sistemlerinin
herhangi bir birey veya gruba karşı önyargı veya ayrımcılık yapmadan eşit bir şekilde çalışmasını sağlamak için kullanılan çerçeve ve teknikler dizisini ifade eder. Otomatik karar verme
kritik sektörlere giderek daha fazla entegre oldukça, adaletin temel amacı, modellerin
ırk, cinsiyet, yaş veya sosyoekonomik durum gibi hassas özelliklere dayalı çarpık sonuçlar üretmesini önlemektir. Bu
kavram, sorumlu AI geliştirmenin temel direğidir ve genellikle temel insan haklarını korumak için
AB AI Yasası gibi yeni düzenlemelerle zorunlu kılınmaktadır
.
Adilliği İlgili Kavramlardan Ayırt Etmek
Gündelik konuşmalarda sıklıkla birbirinin yerine kullanılmasına rağmen, AI'da Adalet, ilgili terimlere kıyasla teknik
alan içinde farklı bir tanıma sahiptir.
-
AI'da önyargı: Bu, bir modelin çıktısındaki sistematik hata veya önyargıyı temsil eder. Önyargı, genellikle
temsil edici olmayan Eğitim Verilerinden kaynaklanan, çözülmesi gereken bir sorundur
, adalet ise bu önyargıyı azaltmak için uygulanan amaç ve metodolojidir.
-
AI Etiği: Teknolojinin ahlaki sonuçlarını yöneten genel felsefi alandır. Adalet,
veri gizliliği ve hesap verebilirlik gibi diğer ilkelerin yanı sıra etik kuralların
ölçülebilir bir bileşenidir.
-
Algoritmik Önyargı: Bu, özellikle algoritmanın kendisinin matematiksel optimizasyonundan kaynaklanan adaletsizliği ifade eder.
Adalet girişimleri, bu
matematiksel eğilimleri düzeltmek için özel
Optimizasyon Algoritmaları kullanır.
Gerçek Dünya Uygulamaları ve Örnekleri
Adaletin uygulanması, algoritmik kararların insan fırsatları ve refahı üzerinde somut etkileri olan "yüksek riskli" ortamlarda kritik öneme sahiptir.
.
-
Eşitlikçi Sağlık Tanıları: Sağlık hizmetlerinde yapay zeka alanında,
bilgisayar görme modelleri cilt kanseri gibi hastalıkların
tanılamasına yardımcı olur. Adil bir model, farklı cilt tonlarında tutarlı bir
doğruluk oranını korumalıdır. Bir model yalnızca açık tenli kişiler üzerinde
eğitilmişse, koyu tenli hastalar için yanlış tanıya yol açabilecek
veri seti önyargısı sergiler ve bu da koyu tenli hastalar için yanlış teşhise yol açabilir.
Araştırmacılar, bu farklılıkları denetlemek ve düzeltmek için
tıbbi görüntü analizi karşılaştırma ölçütlerini kullanır.
Bu, sağlık hizmetlerinde adil bir yaklaşım sağlamak için
-
Tarafsız İşe Alım ve Seçme: Birçok şirket, özgeçmişleri incelemek için
Tahmine Dayalı Modelleme kullanmaktadır.
Adalet kısıtlamaları olmadan, bir model tarihsel önyargıları öğrenebilir; örneğin, istihdamdaki boşlukları veya
belirli demografik gruplarla ilişkili belirli eğitim geçmişlerini cezalandırmak gibi.
Fairlearn gibi araçlar, geliştiricilerin farklı gruplar arasındaki performans farklılıklarını değerlendirerek
sistemin demografik göstergeler yerine becerileri değerlendirdiğinden emin olmalarını sağlar.
Adaleti Sağlamak için Stratejiler
Adil AI sistemleri oluşturmak, veri
toplamadan uygulamaya kadar tüm
Makine Öğrenimi (ML) yaşam döngüsü boyunca proaktif bir yaklaşım gerektirir.
-
Çeşitli Veri Toplama: Adaleti sağlamanın en etkili yolu, kapsayıcı veri kümeleri oluşturmaktır.
Titiz
Veri Toplama veAçıklama
protokolleri, modelin gerçekliği çarpık bir şekilde öğrenmesini engeller.
Ultralytics araçlar, ekiplerin sınıf dağılımlarını görselleştirerek
sürecin erken aşamalarında yeterince temsil edilmeyen grupları belirlemelerine yardımcı olur.
-
Algoritmik Azaltma:
Veri Artırma gibi teknikler, veri kümelerini yapay olarak dengelemek için kullanılabilir.
Örneğin, bir görüntü veri kümesindeki aydınlatma koşullarını veya arka planları değiştirmek, bir modelin farklı ortamlarda daha iyi genelleme yapmasına yardımcı olabilir.
-
Granüler Değerlendirme: Tek bir genel metrik kullanmak ayrımcılığı gizleyebilir. Ekipler, belirli alt gruplar için
Hassasiyet ve
Geri Çağırma oranlarını ölçmek için
ayrıntılı Model Değerlendirmesini kullanmalıdır.
-
Şeffaflık ve Açıklanabilirlik:
Açıklanabilir Yapay Zeka (XAI) tekniklerinin kullanılması,
paydaşların bir kararın neden alındığını anlamalarını sağlar. NIST Yapay Zeka Risk Yönetimi Çerçevesi gibi
kuruluşlar tarafından savunulan bu "cam kutu" yaklaşımı,
ayrımcı mantığı tespit etmeyi ve düzeltmeyi
kolaylaştırır.
Teknik Uygulama
Adaleti sağlamak, genellikle modellerin tutarlı bir şekilde çalıştığını doğrulamak için çeşitli girdiler üzerinde test edilmesini gerektirir. Aşağıda,
Ultralytics modelini kullanan basit bir örnek verilmiştir.
Gerçek dünyadaki bir adalet denetiminde, geliştiriciler bu çıkarım döngüsünü, çeşitli senaryoları ve demografik özellikleri temsil etmek üzere özel olarak seçilmiş bir
görüntü koleksiyonu olan "adalet test seti" üzerinde çalıştırarak, Nesne Algılama'nın tüm durumlarda eşit derecede iyi çalıştığından emin olurlar.
from ultralytics import YOLO
# Load the YOLO26 model (latest state-of-the-art model)
model = YOLO("yolo26n.pt")
# List of images representing diverse scenarios for fairness testing
# These would be images specifically currated to test underrepresented groups
test_images = ["diverse_group_1.jpg", "low_light_scenario.jpg", "unusual_angle.jpg"]
# Run inference to check if detection consistency holds across different inputs
results = model(test_images)
# Analyze results to ensure high confidence detections across all samples
for result in results:
result.show() # Visualize detection to manually inspect for bias
Adaleti önceliklendirerek, kuruluşlar yalnızca GDPR gibi yasal standartlara uymakla kalmaz, aynı zamanda
küresel nüfus için daha sağlam, güvenilir ve güvenilir sistemler de oluştururlar.
Bu, güçlü teknolojilerin toplumun tamamına fayda sağlamasını garanti eden
AI Güvenliği'nin daha geniş hedefleriyle uyumludur.
.