Sözlük

Dikkat Mekanizması

Çeviri, nesne algılama ve daha fazlası gibi NLP ve bilgisayarla görme görevlerini geliştirerek dikkat mekanizmalarının yapay zekada nasıl devrim yarattığını keşfedin!

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Dikkat Mekanizması, Yapay Zeka (AI) ve Makine Öğreniminde (ML) kullanılan ve insanın bilişsel dikkatini taklit eden bir tekniktir. Bir modelin tahminler yaparken veya çıktılar üretirken girdi verilerinin en alakalı kısımlarına (bir cümledeki belirli kelimeler veya bir görüntüdeki bölgeler gibi) seçici olarak odaklanmasını sağlar. Tüm girdi parçalarını eşit olarak ele almak yerine, bu seçici odaklanma, özellikle uzun metin dizileri veya yüksek çözünürlüklü görüntüler gibi büyük miktarda bilgi ile uğraşırken performansı artırır. Bu, modellerin karmaşık görevleri daha etkili bir şekilde ele almasını sağlar ve Transformer mimarisini tanıtan"Attention Is All You Need" adlı ufuk açıcı makale tarafından popülerleştirilen önemli bir yeniliktir.

Dikkat Mekanizmaları Nasıl Çalışır?

Bir dikkat mekanizması, tüm bir girdi dizisini veya görüntüyü eşit şekilde işlemek yerine, farklı girdi segmentlerine "dikkat puanları" veya ağırlıklar atar. Bu puanlar, her bir segmentin eldeki belirli görevle ilgili önemini veya alaka düzeyini gösterir (örneğin, bir cümledeki bir sonraki kelimeyi tahmin etmek veya bir görüntüdeki bir nesneyi sınıflandırmak). Daha yüksek puanlara sahip segmentler hesaplama sırasında modelden daha fazla odak alır. Bu dinamik tahsis, modelin her adımda önemli bilgilere öncelik vermesini sağlayarak daha doğru ve bağlamsal olarak farkında sonuçlar elde edilmesine yol açar. Bu, verileri sırayla işleyen ve kaybolan gradyanlar gibi sorunlar nedeniyle uzun dizilerin önceki bölümlerinden bilgileri hatırlamakta zorlanabilen standart Tekrarlayan Sinir Ağları (RNN'ler) gibi eski mimarilerle tezat oluşturmaktadır.

Alaka Düzeyi ve Türleri

Dikkat mekanizmaları, Doğal Dil İşleme (NLP) ve Bilgisayarla Görme (CV) gibi alanları önemli ölçüde etkileyen birçok son teknoloji modelde temel bileşenler haline gelmiştir. Geleneksel modellerin uzun menzilli bağımlılıkları ele alma ve veri içindeki karmaşık ilişkileri yakalama konusundaki sınırlamalarının üstesinden gelmeye yardımcı olurlar. Temel türler ve ilgili kavramlar şunları içerir:

  • Öz Dikkat: Bir modelin aynı girdi dizisinin farklı parçalarının önemini birbirlerine göre tartmasını sağlar. Bu, Transformers'ın temel mekanizmasıdır.
  • Çapraz Dikkat: Bir modelin başka bir dizinin ilgili kısımlarına odaklanmasını sağlar, genellikle çeviri gibi diziden diziye görevlerde kullanılır.
  • Alan Dikkati: Ultralytics YOLO12 gibi modellerde görüldüğü gibi, dikkati daha büyük bölgelere odaklayan, verimlilik için tasarlanmış bir varyant. Bu, nesne algılamada yaygın olan büyük özellik haritaları üzerinde standart öz dikkat ile ilişkili hesaplama maliyetini azaltabilir.

BERT ve GPT modelleri gibi modeller, NLP görevleri için büyük ölçüde kendi kendine dikkat etmeye dayanırken, Görüntü Dönüştürücüler (ViT 'ler) bu kavramı görüntü sınıflandırması gibi görüntü analizi görevleri için uyarlar.

Dikkat ve Diğer Mekanizmalar

Dikkat mekanizmalarını diğer yaygın sinir ağı bileşenlerinden ayırmak faydalı olacaktır:

  • Evrişimsel Sinir Ağları (CNN'ler): CNN 'ler genellikle görüntüler gibi verilerdeki yerel uzamsal hiyerarşileri işlemek için sabit boyutlu filtreler(kerneller) kullanır. Yerel örüntüleri yakalamak için etkili olsalar da, özel mimariler olmadan uzun menzilli bağımlılıklarla mücadele edebilirler. Dikkat, özellikle de öz dikkat, tüm girdideki küresel ilişkileri daha doğrudan yakalayabilir.
  • Tekrarlayan Sinir Ağları (RNN'ler): RNN 'ler sıralı verileri adım adım işleyerek gizli bir durumu korur. Diziler için tasarlanmış olsalar da standart RNN'ler uzun bağımlılıklarda zorluklarla karşılaşır. Genellikle RNN'lerle birlikte veya Transformer mimarilerinin bir parçası olarak kullanılan dikkat mekanizmaları, modelin mesafeden bağımsız olarak ilgili geçmiş girdilere bakmasına izin vererek bunu açıkça ele alır. Gibi modern çerçeveler PyTorch ve TensorFlow tüm bu mimarilerin uygulamalarını destekler.

Gerçek Dünya Uygulamaları

Dikkat mekanizmaları çok sayıda modern yapay zeka uygulamasının ayrılmaz bir parçasıdır:

Ultralytics HUB gibi platformlar, kullanıcıların genellikle aşağıdaki gibi platformlarda bulunan önceden eğitilmiş model ağırlıklarından yararlanarak, dikkat mekanizmalarını içerenler de dahil olmak üzere gelişmiş modelleri eğitmelerine, doğrulamalarına ve dağıtmalarına olanak tanır Hugging Face.

Tümünü okuyun