Çeviri, nesne algılama ve daha fazlası gibi NLP ve bilgisayarla görme görevlerini geliştirerek dikkat mekanizmalarının yapay zekada nasıl devrim yarattığını keşfedin!
Dikkat Mekanizması, Yapay Zeka (AI) ve Makine Öğreniminde (ML) kullanılan ve insanın bilişsel dikkatini taklit eden bir tekniktir. Bir modelin tahminler yaparken veya çıktılar üretirken girdi verilerinin en alakalı kısımlarına (bir cümledeki belirli kelimeler veya bir görüntüdeki bölgeler gibi) seçici olarak odaklanmasını sağlar. Tüm girdi parçalarını eşit olarak ele almak yerine, bu seçici odaklanma, özellikle uzun metin dizileri veya yüksek çözünürlüklü görüntüler gibi büyük miktarda bilgi ile uğraşırken performansı artırır. Bu, modellerin karmaşık görevleri daha etkili bir şekilde ele almasını sağlar ve Transformer mimarisini tanıtan"Attention Is All You Need" adlı ufuk açıcı makale tarafından popülerleştirilen önemli bir yeniliktir.
Bir dikkat mekanizması, tüm bir girdi dizisini veya görüntüyü eşit şekilde işlemek yerine, farklı girdi segmentlerine "dikkat puanları" veya ağırlıklar atar. Bu puanlar, her bir segmentin eldeki belirli görevle ilgili önemini veya alaka düzeyini gösterir (örneğin, bir cümledeki bir sonraki kelimeyi tahmin etmek veya bir görüntüdeki bir nesneyi sınıflandırmak). Daha yüksek puanlara sahip segmentler hesaplama sırasında modelden daha fazla odak alır. Bu dinamik tahsis, modelin her adımda önemli bilgilere öncelik vermesini sağlayarak daha doğru ve bağlamsal olarak farkında sonuçlar elde edilmesine yol açar. Bu, verileri sırayla işleyen ve kaybolan gradyanlar gibi sorunlar nedeniyle uzun dizilerin önceki bölümlerinden bilgileri hatırlamakta zorlanabilen standart Tekrarlayan Sinir Ağları (RNN'ler) gibi eski mimarilerle tezat oluşturmaktadır.
Dikkat mekanizmaları, Doğal Dil İşleme (NLP) ve Bilgisayarla Görme (CV) gibi alanları önemli ölçüde etkileyen birçok son teknoloji modelde temel bileşenler haline gelmiştir. Geleneksel modellerin uzun menzilli bağımlılıkları ele alma ve veri içindeki karmaşık ilişkileri yakalama konusundaki sınırlamalarının üstesinden gelmeye yardımcı olurlar. Temel türler ve ilgili kavramlar şunları içerir:
BERT ve GPT modelleri gibi modeller, NLP görevleri için büyük ölçüde kendi kendine dikkat etmeye dayanırken, Görüntü Dönüştürücüler (ViT 'ler) bu kavramı görüntü sınıflandırması gibi görüntü analizi görevleri için uyarlar.
Dikkat mekanizmalarını diğer yaygın sinir ağı bileşenlerinden ayırmak faydalı olacaktır:
Dikkat mekanizmaları çok sayıda modern yapay zeka uygulamasının ayrılmaz bir parçasıdır:
Ultralytics HUB gibi platformlar, kullanıcıların genellikle aşağıdaki gibi platformlarda bulunan önceden eğitilmiş model ağırlıklarından yararlanarak, dikkat mekanizmalarını içerenler de dahil olmak üzere gelişmiş modelleri eğitmelerine, doğrulamalarına ve dağıtmalarına olanak tanır Hugging Face.