Sözlük

Destek Vektör Makinesi (SVM)

Gerçek dünya uygulamaları ve içgörülerle sınıflandırma, regresyon ve aykırı değer tespiti için Destek Vektör Makinelerinin (DVM'ler) gücünü keşfedin.

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Destek Vektör Makinesi (DVM), öncelikle sınıflandırma görevleri için kullanılan popüler ve güçlü bir denetimli Makine Öğrenimi (ML ) algoritmasıdır, ancak regresyon (Destek Vektör Regresyonu - SVR) ve aykırı değer tespiti için de etkilidir. 1990'larda geliştirilen ve Wikipedia'da ayrıntılı olarak açıklanan DVM'ler, yüksek boyutlu bir uzayda farklı sınıflara ait veri noktalarını en iyi şekilde ayıran ve hiper düzlem adı verilen optimum bir sınır bularak çalışır. Temel fikir, marjı (hiper düzlem ile her sınıftan en yakın veri noktaları (destek vektörleri) arasındaki mesafe) maksimize etmektir; bu da genellikle görünmeyen veriler üzerinde iyi bir genelleme performansı sağlar.

Svm Nasıl Çalışır?

DVM'nin temel prensibi, bir veri kümesini bölmek için ideal hiper düzlemi bulmaktır. Düz bir çizgi veya düz bir düzlemle ayrılabilen veriler (doğrusal olarak ayrılabilir veriler) için DVM, sınıflar arasında mümkün olan en büyük boşluğu yaratan hiper düzlemi tanımlar. Eğitim verilerinden bu hiper düzleme en yakın olan ve konumunu ve yönünü tanımlamada kritik olan veri noktaları destek vektörleri olarak bilinir. Sınırın yakınındaki en zorlu noktalara odaklanmak DVM'leri bellek açısından verimli kılar çünkü eğitimden sonra modeli tanımlamak için yalnızca bu destek vektörlerine ihtiyaç duyulur.

Sınıfların doğrusal bir sınırla ayrılamadığı veri kümeleri (doğrusal olarak ayrılamayan veriler) için DVM'ler çekirdek hilesi adı verilen bir teknik kullanır. Bu akıllı yöntem, DVM'lerin orijinal verileri, bu yeni uzaydaki koordinatları açıkça hesaplamadan, doğrusal bir ayrımın mümkün olabileceği daha yüksek boyutlu bir uzaya eşlemesine olanak tanır. Yaygın kernel fonksiyonları şunları içerir:

  • Doğrusal: Doğrusal olarak ayrılabilen veriler için.
  • Polinom: Polinom fonksiyonları kullanarak verileri daha yüksek boyutlara eşler.
  • Radyal Taban Fonksiyonu (RBF): Karmaşık, doğrusal olmayan ilişkiler için popüler bir seçimdir.
  • Sigmoid: Sinir ağlarında (NN) kullanılan aktivasyon fonksiyonuna benzer.

Çekirdek ve parametrelerinin seçimi çok önemlidir ve genellikle dikkatli hiperparametre ayarı gerektirir.

Alaka Düzeyi ve Uygulamalar

DVM'ler, Derin Öğrenmenin (DL) yükselişine rağmen, özellikle yüksek boyutlu verilere (birçok özellik) ancak sınırlı eğitim örneklerine sahip senaryolarda geçerliliğini korumaktadır. Özellikle net bir ayırma marjı mevcut olduğunda, teorik garantileri ve sağlamlıkları ile bilinirler. Tarihsel olarak, Yönlendirilmiş Gradyanların Histogramı (HOG) gibi özellik çıkarıcılarla birleştirilmiş DVM'ler, nesne algılamanın evriminde belirtildiği gibi, nesne algılama gibi görevler için son teknoloji ürünüdür.

Yaygın uygulamalar şunları içerir:

  • Görüntü Sınıflandırma: Görüntüleri içeriklerine göre sınıflandırmak (örneğin, farklı çiçek veya hayvan türlerini ayırt etmek). SVM'ler, özellikle orta büyüklükteki veri kümelerinde, görüntülerden çıkarılan el yapımı özelliklerle birlikte kullanıldığında etkili olabilir.
  • Metin Kategorizasyonu: Spam e-posta tespiti veya müşteri yorumlarının duygu analizi gibi metin belgelerinin önceden tanımlanmış kategorilere sınıflandırılması. SVM'ler yüksek boyutlu metin verilerini ( TF özellikleri gibi) iyi bir şekilde işler.
  • Biyoinformatik: Örnek sayısına kıyasla özellik sayısının çok fazla olabileceği gen ifadesi verilerine dayalı protein sınıflandırması veya kanser teşhisi gibi görevler için kullanılır.
  • Yüz Tanıma: Genellikle daha büyük bir sistemin parçası olarak yüz özelliklerine dayalı olarak bireylerin tanımlanması veya doğrulanması.

Avantajlar ve Sınırlamalar

Avantajlar:

  • Yüksek Boyutlarda Etkilidir: Özellik sayısı örnek sayısından fazla olduğunda bile iyi performans gösterir.
  • Bellek Verimli: Karar fonksiyonunda yalnızca eğitim noktalarının (destek vektörleri) bir alt kümesini kullanır.
  • Çok yönlüdür: Karar fonksiyonu için farklı çekirdek fonksiyonları belirlenebilir, bu da çeşitli veri türlerinin işlenmesinde esneklik sağlar.
  • İyi Genelleme: Marj maksimizasyonu hedefi genellikle görünmeyen veriler üzerinde iyi doğruluğa sahip modellere yol açar.

Sınırlamalar:

  • Hesaplama Açısından Yoğun: Çok büyük veri kümelerinde eğitim yavaş olabilir.
  • Çekirdek ve Parametre Hassasiyeti: Performans büyük ölçüde çekirdeğin ve parametrelerinin (örneğin, C, gama) seçimine bağlıdır ve dikkatli bir ayarlama gerektirir.
  • Çakışan Sınıflarda Düşük Performans: Veri sınıfları önemli ölçüde çakışıyorsa ideal değildir.
  • Doğrudan Olasılık Tahminleri Yok: Standart DVM'ler sınıf atamaları üretir ancak doğrudan olasılık puanları üretmez. DVM çıktılarını olasılıklara kalibre etmek için Platt ölçeklendirmesi gibi tekniklere ihtiyaç vardır.

Svm Vs. Diğer Algoritmalar

Lojistik Regresyon gibi daha basit algoritmalarla karşılaştırıldığında, DVM'ler sadece ayırıcı bir sınır bulmak yerine marjı maksimize etmeyi amaçlar, bu da daha iyi genellemeye yol açabilir. Karar Ağaçları veya Rastgele Ormanlar gibi ağaç tabanlı yöntemlerin aksine DVM'ler tek bir optimum hiper düzlem oluşturur (muhtemelen yüksek boyutlu bir uzayda). gibi modern derin öğrenme modelleri olsa da Ultralytics YOLO Ham verilerden ( bilgisayarla görmede (CV) pikseller gibi) otomatik özellik çıkarma konusunda mükemmel olan SVM'ler genellikle dikkatli özellik mühendisliği gerektirir, ancak daha küçük veri kümelerinde veya özelliklerin iyi tanımlandığı belirli yapılandırılmış veri türlerinde olağanüstü iyi performans gösterebilir. Popüler uygulamalar arasında LibSVM ve scikit-learn'deki SVM modülü bulunmaktadır. Bu tür modellerin eğitimi ve yönetimi, diğerleriyle birlikte, MLOps yaşam döngüsünü basitleştiren Ultralytics HUB gibi platformlar kullanılarak kolaylaştırılabilir.

Tümünü okuyun