Sözlük

Gradyan İniş

Gradient Descent'in Ultralytics YOLO gibi yapay zeka modellerini nasıl optimize ettiğini ve sağlık hizmetlerinden sürücüsüz arabalara kadar çeşitli görevlerde doğru tahminler yapılmasını sağladığını keşfedin.

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Gradient Descent, makine öğrenimi (ML) ve yapay zekada (AI) yaygın olarak kullanılan temel bir optimizasyon algoritmasıdır. gibi karmaşık derin öğrenme mimarileri de dahil olmak üzere birçok modeli eğitmek için birincil yöntem olarak hizmet eder. Ultralytics YOLO. Gradient Descent'in amacı, modelin tahminleri ile gerçek hedef değerler arasındaki farkı ölçen bir kayıp fonksiyonunu en aza indirmek için modelin iç parametrelerini (genellikle model ağırlıkları ve önyargıları olarak adlandırılır) yinelemeli olarak ayarlamaktır. Gözleriniz bağlıyken bir vadideki en alçak noktayı bulmaya çalıştığınızı düşünün; Gradient Descent, mevcut konumunuzdaki eğimi (gradyan) değerlendirerek ve en dik aşağı yönde küçük adımlar atarak size rehberlik eder. Bu yinelemeli süreç, modellerin verilerden öğrenmesine ve tahmin doğruluğunu geliştirmesine olanak tanır.

Makine Öğreniminde Uygunluk

Gradyan İnişi, birçok modern yapay zeka uygulamasının temelini oluşturan sinir ağları (NN'ler) gibi sofistike modellerin eğitimi için özellikle önemlidir. Nesne algılama, görüntü sınıflandırma ve doğal dil işleme (NLP) için kullanılanlar da dahil olmak üzere bu modeller, genellikle optimizasyon gerektiren milyonlarca hatta milyarlarca parametreye sahiptir. Gradient Descent, varyantlarıyla birlikte, karmaşık kayıp manzarasında (tüm olası parametre kombinasyonları için kayıp değerini temsil eden yüksek boyutlu yüzey) gezinmek ve iyi performans sağlayan parametre değerlerini bulmak için hesaplamalı olarak uygun bir yol sağlar. Gradient Descent aracılığıyla etkili optimizasyon olmadan, bu büyük modelleri yüksek doğruluk seviyelerine eğitmek pratik olmayacaktır. Gibi büyük makine öğrenimi çerçeveleri PyTorch ve TensorFlow Gerekli gradyanları hesaplamak için ağırlıklı olarak Gradient Descent'in çeşitli uygulamalarına ve backpropagation gibi ilgili algoritmalara güvenir. Bu süreci optimize etmeye yönelik içgörüler için model eğitimi ipuçlarını keşfedebilirsiniz.

Temel Kavramlar ve Varyantlar

Gradyan İnişinin ana fikri, model parametrelerine göre kayıp fonksiyonunun gradyanının (en dik yükseliş yönü) hesaplanmasını ve ardından ters yönde (yokuş aşağı) bir adım atılmasını içerir. Bu adımın boyutu, modelin ne kadar hızlı öğrendiğini belirleyen kritik bir hiper parametre olan öğrenme oranı tarafından kontrol edilir. Çok küçük bir öğrenme oranı yavaş yakınsamaya yol açabilirken, çok büyük bir oran optimizasyon sürecinin minimumun üzerine çıkmasına ve hatta sapmasına neden olabilir. Gradyan İnişinin çeşitli varyasyonları mevcuttur, bunlar öncelikle her adımda gradyanı hesaplamak için ne kadar veri kullanıldığına göre farklılık gösterir:

  • Toplu Gradyan İnişi (BGD): Tüm eğitim veri kümesini kullanarak gradyanı hesaplar. Bu, doğru bir gradyan tahmini sağlar ancak büyük veri kümeleri için hesaplama açısından çok pahalı ve yavaş olabilir.
  • Stokastik Gradyan İnişi (SGD): Her adımda yalnızca tek bir eğitim örneğinden hesaplanan gradyanı kullanarak parametreleri günceller. Çok daha hızlıdır ve sığ yerel minimumlardan kaçabilir, ancak güncellemeler gürültülüdür ve daha az kararlı bir yakınsama yoluna yol açar.
  • Mini yığın Gradyan İnişi: BGD ve SGD arasında bir uzlaşmadır. Eğitim verilerinin küçük, rastgele bir alt kümesini (mini parti) kullanarak gradyanı hesaplar ( parti boyutu hiper parametresi tarafından kontrol edilir). Bu, BGD'nin doğruluğunu SGD'nin verimliliği ile dengeler ve derin öğrenmede kullanılan en yaygın varyanttır.
  • Uyarlanabilir Optimizatörler: Adam(makale bağlantısı), Adagrad ve RMSprop gibi algoritmalar, eğitim sırasında her parametre için öğrenme oranını otomatik olarak ayarlar ve genellikle temel SGD veya Mini-batch GD'ye kıyasla daha hızlı yakınsama ve daha iyi performans sağlar. Bunlar, Ultralytics HUB gibi platformlarda eğitim modelleri için sıklıkla kullanılır. Varyantlar hakkında daha fazla ayrıntı Gradient Descent Wikipedia sayfasında bulunabilir.

İlgili Kavramlardan Farklılıkları

Gradyan İnişi, gradyanları kullanarak model parametrelerini ayarlayarak bir kayıp fonksiyonunu iteratif olarak en aza indirmeye odaklanan özel bir optimizasyon algoritması türüdür. Model eğitimindeki diğer önemli kavramlardan farklıdır:

Gerçek Dünya Uygulamaları

Gradient Descent, sayısız gerçek dünya yapay zeka uygulaması için eğitim modellerinin arkasındaki motordur ve modellerin denetimli öğrenme senaryolarında ve ötesinde büyük miktarda veriden öğrenmesini sağlar:

  1. Tıbbi Görüntü Analizi: Sağlık hizmetlerinde yapay zeka alanında Gradient Descent, tıbbi görüntü analizi gibi görevler için Evrişimsel Sinir Ağlarını (CNN'ler) eğitir. Örneğin, modelin öngörülen segmentasyonu veya sınıflandırması ile radyologlar tarafından sağlanan temel gerçek arasındaki farkı en aza indirerek X-ışınları, CT taramaları veya MRI'lardaki tümörleri veya anormallikleri tespit etmek için modelleri optimize eder(örnek blog gönderisine bakın). Radiology gibi dergiler : Artificial Intelligence gibi dergiler bu tür gelişmeleri sergilemektedir.
  2. Öneri Sistemleri: Netflix ve Amazon gibi şirketler Gradient Descent ile eğitilmiş öneri algoritmaları kullanmaktadır. Bu algoritmalar, kullanıcı derecelendirmelerini veya etkileşim olasılığını tahmin eden bir kayıp fonksiyonunu en aza indirerek kullanıcı tercihlerini ve öğe özelliklerini öğrenir ve ilgili filmleri, ürünleri veya içeriği önermelerine olanak tanır.
  3. Otonom Araçlar: Sınırlayıcı kutular kullanarak yayaları, arabaları ve trafik şeritlerini tanımlama gibi algılama görevleri için otonom araçlarda kullanılan modeller, Gradient Descent kullanılarak eğitilir. Bu optimizasyon, Waymo gibi şirketler tarafından geliştirilen sistemlerde görüldüğü gibi, kendi kendine sürüş teknolojisinin güvenliği ve güvenilirliği için kritik öneme sahiptir. Bu, Otomotivde Yapay Zeka ile son derece ilgilidir.
Tümünü okuyun