Farklı gizliliklerin makine öğrenimini nasıl güvence altına aldığını keşfedin. Ultralytics kullanarak gizlilik bütçeleri, gürültü enjeksiyonu ve veri kümelerinin korunması hakkında bilgi edinin.
Diferansiyel gizlilik, veri analizi ve makine öğreniminde (ML), veri setinde yer alan bireylerin gizlilik riskini ölçmek ve sıkı bir şekilde sınırlamak için kullanılan titiz bir matematiksel çerçevedir. Diğer veritabanlarıyla çapraz referanslama yoluyla sıklıkla tersine çevrilebilen geleneksel anonimleştirme tekniklerinden farklı olarak, diferansiyel gizlilik, algoritmanın çıktısının, belirli bir bireyin bilgileri dahil edilse de edilmesede, neredeyse aynı kalacağını kanıtlanabilir bir garanti sağlar. Bu yaklaşım, araştırmacıların ve kuruluşların yararlı veri analizleri elde etmelerine ve sağlam modeller oluşturmalarına olanak tanırken, saldırganların sonuçları tersine mühendislik yoluyla belirli kullanıcıları tanımlamasını veya hassas özellikleri ortaya çıkarmasını engeller.
Diferansiyel gizliliğin temel kavramı, verilere veya algoritmanın çıktısına hesaplanmış miktarda "gürültü" (rastgele varyasyon) eklemeye dayanır. Bu süreç, "gizlilik bütçesi" olarak da bilinen Epsilon (ε) adlı bir parametre tarafından yönetilir. Bütçe, gizliliğin korunması ile sonuçların doğruluğu (kullanışlılığı) arasındaki dengeyi belirler.
Derin öğrenme (DL) bağlamında, gürültü genellikle gradyan iniş süreci sırasında enjekte edilir. Gradyanları kırparak ve model ağırlıklarını güncellemeden önce rastgelelik ekleyerek, geliştiriciler sinir ağının belirli eğitim örneklerini "ezberlemesini" önler. Bu, modelin belirli bir hastanın belirgin biyometrik belirteçlerini saklamadan, tıbbi görüntü analizindetümörün şekli gibi genel özellikleri öğrenmesini sağlar.
Farklı gizlilik, veri hassasiyetinin önemli olduğu sektörlerde AI etik ilkelerini uygulamak için kritik öneme sahiptir.
Güvenli bir ML boru hattını uygulamak için, farklı gizliliği diğer güvenlik terimlerinden ayırmak çok önemlidir.
Diferansiyel gizliliğin bir yönü, girdi bozulmasıdır — algoritmanın kesin piksel değerlerine güvenememesi için verilere gürültü eklemek. Gerçek diferansiyel gizlilik karmaşık eğitim döngüleri (SGD gibi) gerektirirken, aşağıdaki Python , çıkarımdan önce bir görüntüye Gauss gürültüsü ekleme kavramını göstermektedir. Bu, bir modelin sağlamlığını nasıl test edebileceğinizi veya YOLO26 kullanarak gizlilik koruyan bir boru hattı için verileri nasıl hazırlayabileceğinizi simüle eder. YOLO26.
import torch
from ultralytics import YOLO
# Load the latest YOLO26 model (optimized for end-to-end performance)
model = YOLO("yolo26n.pt")
# Create a dummy image tensor (Batch, Channel, Height, Width)
img_tensor = torch.rand(1, 3, 640, 640)
# Generate Gaussian noise (simulate privacy noise injection)
noise = torch.randn_like(img_tensor) * 0.1 # Epsilon proxy: scale of noise
# Add noise to the input data
noisy_input = img_tensor + noise
# Run inference on the noisy data
# A robust model should still detect general patterns despite the noise
results = model(noisy_input)
print(f"Detections on noisy input: {len(results[0].boxes)}")
Diferansiyel gizliliği uygulamak, genellikle "gizlilik bütçesinin" birden fazla eğitim çalışmasında doğru bir şekilde izlenmesini sağlamak için veri kümelerinin dikkatli bir şekilde yönetilmesini gerektirir. Ultralytics , ekiplerin eğitim verilerini yönetmeleri, track ve modellerin güvenli bir şekilde dağıtılmasını sağlamaları için merkezi bir ortam sunar. Veri sürümleri ve erişim üzerinde sıkı bir kontrol sağlayarak, kuruluşlar gelişmiş gizlilik çerçevelerini daha iyi uygulayabilir ve bilgisayar görme (CV) projelerinde uyumluluk standartlarına uyabilirler.