Sözlük

Destek Vektör Makinesi (SVM)

Gerçek dünya uygulamaları ve içgörülerle sınıflandırma, regresyon ve aykırı değer tespiti için Destek Vektör Makinelerinin (DVM'ler) gücünü keşfedin.

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Destek Vektör Makinesi (DVM), öncelikle sınıflandırma görevleri için kullanılan popüler ve güçlü bir denetimli Makine Öğrenimi (ML ) algoritmasıdır, ancak regresyon (Destek Vektör Regresyonu - SVR) ve aykırı değer tespiti için de etkilidir. 1990'larda geliştirilen SVM'ler, yüksek boyutlu bir uzayda farklı sınıflara ait veri noktalarını en iyi şekilde ayıran hiper düzlem adı verilen optimum bir sınır bularak çalışır. Temel fikir, hiper düzlem ile her sınıftan en yakın veri noktaları (destek vektörleri) arasındaki mesafe olan marjı maksimize etmektir; bu da genellikle görünmeyen veriler üzerinde iyi bir genelleme performansı sağlar.

Svm Nasıl Çalışır?

DVM'nin temel prensibi, bir veri kümesini bölmek için ideal hiper düzlemi bulmaktır. Düz bir çizgi veya düz bir düzlemle ayrılabilen veriler (doğrusal olarak ayrılabilen veriler) için DVM, sınıflar arasında mümkün olan en büyük boşluğu yaratan hiper düzlemi tanımlar. Konumunu ve yönünü tanımlamada kritik öneme sahip olan bu hiper düzleme en yakın veri noktaları destek vektörleri olarak bilinir. Sınıra yakın en zorlu noktalara odaklanılması, DVM'lerin bellek açısından verimli olmasını sağlar, çünkü eğitimden sonra modeli tanımlamak için yalnızca bu destek vektörlerine ihtiyaç duyulur.

Sınıfların doğrusal bir sınırla ayrılamadığı veri kümeleri (doğrusal olarak ayrılamayan veriler) için DVM'ler çekirdek hilesi adı verilen bir teknik kullanır. Bu akıllı yöntem, DVM'lerin orijinal verileri, bu yeni uzaydaki koordinatları açıkça hesaplamadan, doğrusal bir ayrımın mümkün olabileceği daha yüksek boyutlu bir uzaya eşlemesine olanak tanır. Yaygın kernel fonksiyonları şunları içerir:

  • Doğrusal Çekirdek: Doğrusal olarak ayrılabilen veriler için kullanılır.
  • Polinom Çekirdeği: Verileri daha yüksek dereceli bir polinom uzayına eşler.
  • Radyal Taban Fonksiyonu (RBF) Çekirdeği: Verileri sonsuz boyutlu bir uzaya eşleyerek karmaşık ilişkileri ele alabilen popüler bir seçimdir.
  • Sigmoid Çekirdek: Sinir ağlarında kullanılan aktivasyon fonksiyonuna benzer.

Çekirdek ve parametrelerinin seçimi çok önemlidir ve genellikle dikkatli hiperparametre ayarı gerektirir.

Alaka Düzeyi ve Uygulamalar

DVM'ler, Derin Öğrenmenin (DL) yükselişine rağmen, özellikle yüksek boyutlu verilere (birçok özellik) ancak sınırlı eğitim örneklerine sahip senaryolarda geçerliliğini korumaktadır. Özellikle net bir ayırma marjı mevcut olduğunda, teorik garantileri ve sağlamlıkları ile bilinirler. Tarihsel olarak, Yönlendirilmiş Gradyanların Histogramı (HOG) gibi özellik çıkarıcılarla birleştirilmiş DVM'ler, nesne algılamanın evriminde belirtildiği gibi, nesne algılama gibi görevler için son teknoloji ürünüdür.

Yaygın uygulamalar şunları içerir:

  • Görüntü Sınıflandırma: Görüntüleri, el yazısı rakamları tanımlamak veya farklı nesne türlerini ayırt etmek gibi önceden tanımlanmış kategoriler halinde sınıflandırmak. Örneğin, bir SVM, çıkarılan özelliklere dayalı olarak tıbbi görüntüleri tümör içerip içermediğine göre sınıflandırmak için eğitilebilir.
  • Metin Kategorizasyonu: Belgeleri konulara ayırma, duygu analizi (olumlu/olumsuz yorumlar) ve spam algılama. Örneğin, haber makalelerini 'spor', 'politika' veya 'teknoloji' gibi kategorilere ayırmak.
  • Yüz Algılama: Genellikle tanımadan önce bir ön adım olarak görüntülerdeki yüzleri tanımlama.
  • Biyoinformatik: Karmaşık biyolojik verilere dayanarak proteinlerin, genlerin veya hasta örneklerinin sınıflandırılması.
  • El Yazısı Tanıma: El yazısı karakterlerini tanıyan sistemlerde kullanılır.

Avantajlar ve Sınırlamalar

Avantajlar:

  • Boyut sayısı örnek sayısını aştığında bile yüksek boyutlu uzaylarda etkilidir.
  • Karar fonksiyonunda yalnızca eğitim noktalarının bir alt kümesini (destek vektörleri) kullandıkları için bellek açısından verimlidirler.
  • Çeşitli veri türlerine adaptasyon sağlayan farklı çekirdek fonksiyonları sayesinde çok yönlüdür.
  • Sınıflar iyi ayrıldığında genellikle yüksek doğruluk elde eder.

Sınırlamalar:

  • Çok büyük veri kümeleri üzerinde eğitmek hesaplama açısından pahalı ve yavaş olabilir.
  • Performans büyük ölçüde çekirdek fonksiyonunun ve hiperparametrelerin seçimine bağlıdır.
  • Sınıfların önemli ölçüde örtüştüğü gürültülü veri kümelerinde daha az etkilidir.
  • DVM'ler doğrudan olasılık tahminleri sağlamaz; bunlar daha fazla işlem gerektirir (örn. Platt ölçeklendirme).

Svm Vs. Diğer Algoritmalar

Lojistik Regresyon gibi daha basit algoritmalarla karşılaştırıldığında, DVM'ler sadece ayırıcı bir sınır bulmak yerine marjı maksimize etmeyi amaçlar, bu da daha iyi genellemeye yol açabilir. Karar Ağaçları veya Rastgele Ormanların aksine DVM'ler tek bir optimum hiper düzlem oluşturur. gibi modern derin öğrenme modelleri olsa da Ultralytics YOLO Ham verilerden ( bilgisayarla görmedeki pikseller gibi) otomatik özellik çıkarma konusunda mükemmel olan SVM'ler genellikle dikkatli özellik mühendisliği gerektirir, ancak daha küçük veri kümelerinde veya belirli yapılandırılmış veri türlerinde iyi performans gösterebilir. Popüler uygulamalar arasında LibSVM ve scikit-learn'deki SVM modülü bulunmaktadır. Bu tür modellerin eğitimi ve yönetimi Ultralytics HUB gibi platformlar kullanılarak kolaylaştırılabilir.

Tümünü okuyun