Sözlük

Sigmoid

Yapay zekada Sigmoid fonksiyonunun gücünü keşfedin. Doğrusal olmamayı nasıl sağladığını, ikili sınıflandırmaya nasıl yardımcı olduğunu ve makine öğrenimindeki gelişmeleri nasıl yönlendirdiğini öğrenin!

Sigmoid fonksiyonu, makine öğrenimi (ML) ve derin öğrenmede (DL) kullanılan popüler bir aktivasyon fonksiyonudur. Karakteristik "S" şeklinde veya sigmoidal bir eğri üreten matematiksel bir fonksiyondur. Birincil amacı, herhangi bir gerçek değerli sayıyı alıp 0 ile 1 arasında bir aralığa "sıkıştırmaktır." Bu çıktı genellikle bir olasılık olarak yorumlanır ve Sigmoid'i özellikle amacın bir sonucun olasılığını tahmin etmek olduğu modellerde kullanışlı hale getirir. Bir sinir ağına (NN) doğrusal olmama özelliğini ekleyerek, modelin verilerden basit doğrusal dönüşümlerle aksi takdirde imkansız olacak karmaşık kalıpları öğrenmesini sağlar.

Rolü ve Uygulamaları

Sigmoid fonksiyonunun girdileri olasılık benzeri bir çıktıya eşleme yeteneği, onu belirli görev türleri için bir köşe taşı haline getirir. Modern derin sinir ağlarının gizli katmanlarında daha az yaygın hale gelmiş olsa da, belirli senaryolarda çıktı katmanı için standart bir seçim olmaya devam etmektedir.

Anahtar Uygulamalar

  • İkili Sınıflandırma: İkili sınıflandırma problemlerinde amaç, bir girdiyi iki sınıftan birine (örneğin, spam veya spam değil, hastalık var veya yok) kategorize etmektir. Çıkış katmanındaki bir Sigmoid fonksiyonu, girdinin pozitif sınıfa ait olma olasılığını temsil eden 0 ile 1 arasında tek bir değer sağlar. Örneğin, bir tıbbi görüntü analiz modeli, bir tümörün kötü huylu olma olasılığının %90 olduğunu gösteren 0,9'luk bir olasılık çıktısı vermek için Sigmoid kullanabilir.
  • Çok Etiketli Sınıflandırma: Bir girdinin yalnızca bir sınıfa ait olduğu çok sınıflı sınıflandırmanın aksine, çok etiketli görevler bir girdinin aynı anda birden fazla etiketle ilişkilendirilmesine izin verir. Örneğin, Ultralytics YOLO gibi bir nesne algılama modeli bir görüntüyü analiz edebilir ve bir kerede "araba", "yaya" ve "trafik ışığı" tanımlayabilir. Bu durumda, her bir çıkış nöronuna bağımsız olarak bir Sigmoid fonksiyonu uygulanır ve her bir olası etiket için olasılık verilir. Nesne algılamanın evrimi hakkında daha fazla bilgi edinebilirsiniz.
  • RNN'lerde Geçit Mekanizmaları: Sigmoid fonksiyonları, Uzun Kısa Süreli Bellek (LSTM) ve Geçitli Tekrarlayan Birimler (GRU) gibi Tekrarlayan Sinir Ağlarının (RNN'ler) geçit mekanizmalarında temel bir bileşendir. Bu kapılar bilgi akışını kontrol etmek için Sigmoid kullanır ve her adımda hangi verilerin tutulacağına veya atılacağına karar verir. Bu mekanizma, LSTM'leri anlamaya yönelik bu ayrıntılı blog yazısında açıklandığı gibi, sıralı verilerdeki uzun vadeli bağımlılıkları öğrenmek için çok önemlidir.

Diğer Aktivasyon Fonksiyonları ile Karşılaştırma

Sigmoid fonksiyonunun ne zaman kullanılacağını anlamak için diğer aktivasyon fonksiyonlarından ayırt etmek önemlidir.

  • Softmax: Softmax fonksiyonu tipik olarak, her girdinin birkaç olası sınıftan tam olarak birine ait olduğu çok sınıflı sınıflandırma problemleri için kullanılır. Her bir çıktı için bağımsız olasılıklar hesaplayan Sigmoid'in aksine Softmax, tüm sınıflar arasında toplamı 1 olan bir olasılık dağılımı hesaplar. Örneğin, MNIST veri kümesinden el yazısı rakamları sınıflandıran bir model, 0'dan 9'a kadar her rakama tek bir olasılık atamak için Softmax kullanacaktır.
  • ReLU (Doğrultulmuş Lineer Birim): ReLU, derin ağlardaki gizli katmanlar için fiili standart haline gelmiştir. Hesaplama açısından daha verimlidir ve Sigmoid'de önemli bir sorun olan kaybolan gr adyan sorununu hafifletmeye yardımcı olur; gradyanlar geri yayılma sırasında aşırı derecede küçülür, öğrenme sürecini yavaşlatır veya durdurur. Bu DeepLearning.AI makalesinde gradyanların zorlukları hakkında daha fazla bilgi edinebilirsiniz.
  • SiLU (Sigmoid Lineer Birim): Swish olarak da bilinen SiLU, Sigmoid'den türetilmiş daha modern bir aktivasyon fonksiyonudur. Gelişmiş bilgisayarla görme mimarileri de dahil olmak üzere daha derin modellerde genellikle ReLU'dan daha iyi performans gösterir. Ultralitik modeller genellikle daha iyi bir hız ve doğruluk dengesi elde etmek için gelişmiş aktivasyon fonksiyonlarından yararlanır.

Modern Kullanım ve Kullanılabilirlik

Günümüzde gizli katmanlarda daha az yaygın olsa da Sigmoid, ikili ve çok etiketli sınıflandırma görevlerinde çıktı katmanları için standart bir seçim olmaya devam etmektedir. Ayrıca, sıralı verileri işleyen karmaşık mimarilerdeki geçit mekanizmalarında temel bir bileşen oluşturur.

Sigmoid, tüm büyük markalarda kolayca temin edilebilir derin öğrenme çerçeveleridahil olmak üzere PyTorch (olarak torch.sigmoid) ve TensorFlow (olarak tf.keras.activations.sigmoid). Gibi platformlar Ultralytics HUB çeşitli aktivasyon fonksiyonlarını kullanan modelleri destekleyerek kullanıcıların Tren ve konuşlandırmak sofistike bilgisayarla görme çözümleri.

Ultralytics topluluğuna katılın

Yapay zekanın geleceğine katılın. Küresel yenilikçilerle bağlantı kurun, işbirliği yapın ve büyüyün

Şimdi katılın
Panoya kopyalanan bağlantı