Bağlama duyarlı hassasiyetle NLP, bilgisayarla görme ve konuşma tanımada devrim yaratan yapay zekada öz dikkatin gücünü keşfedin.
Öz-dikkat, modern yapay zekada çok önemli bir mekanizmadır ve özellikle "Attention Is All You Need" adlı etkili makalede tanıtılan Transformer mimarisinde öne çıkmaktadır. Modellerin bilgiyi işlerken tek bir girdi dizisinin farklı bölümlerinin önemini tartmasına olanak tanıyarak verilerin kendi içindeki bağlam ve ilişkilerin daha derin bir şekilde anlaşılmasını sağlar. Bu, öncelikle farklı girdi ve çıktı dizilerini ilişkilendirmeye odaklanan önceki dikkat yöntemleriyle tezat oluşturmaktadır. Etkisi doğal dil işlemede dönüştürücü olmuştur ve bilgisayarla görmede (CV) giderek daha önemli hale gelmektedir.
Öz-dikkatin arkasındaki temel fikir, insanların bağlamlarını göz önünde bulundurarak bilginin belirli kısımlarına odaklanma yeteneğini taklit etmektir. Örneğin bir cümleyi okurken, bir kelimenin anlamı genellikle onu çevreleyen kelimelere bağlıdır. Self-attention, bir yapay zeka modelinin bir girdi dizisi içindeki tüm öğeler (kelimeler veya görüntü yamaları gibi) arasındaki ilişkileri değerlendirmesini sağlar. Her bir öğe için dizideki diğer tüm öğelere göre 'dikkat puanları' hesaplar. Bu puanlar, belirli bir öğe için bir çıktı temsili oluştururken her bir öğenin ne kadar 'dikkat' veya ağırlık alması gerektiğini belirler ve modelin bağlamı ve uzun menzilli bağımlılıkları anlamak için girdinin en alakalı kısımlarına odaklanmasına etkili bir şekilde izin verir. Bu süreç, her bir girdi öğesi için genellikle girdi katıştırmalarından türetilen sorgu, anahtar ve değer temsillerinin oluşturulmasını içerir.
Kendi kendine dikkat, eski dizi işleme tekniklerine göre çeşitli avantajlar sunar:
Her ikisi de dikkat mekanizmaları şemsiyesi altına girse de, öz dikkat geleneksel dikkatten önemli ölçüde farklıdır. Geleneksel dikkat tipik olarak iki farklı dizinin unsurları arasındaki dikkat puanlarını hesaplar, örneğin makine çevirisi sırasında bir kaynak cümledeki kelimeleri hedef cümledeki kelimelerle ilişkilendirmek gibi. Bununla birlikte, kendi kendine dikkat, girdinin öğelerini aynı girdinin diğer öğeleriyle ilişkilendirerek tek bir dizi içindeki dikkat puanlarını hesaplar. Bu dahili odaklanma, girdinin yapısı ve bağlamının derinlemesine anlaşılmasını gerektiren görevlerdeki etkinliğinin anahtarıdır.
Öz-dikkat, çeşitli alanlardaki birçok son teknoloji model için temeldir:
Araştırmalar, daha fazla hesaplama verimliliği (örneğin, FlashAttention ve seyrek dikkat varyantları gibi yöntemler) ve daha geniş uygulanabilirlik hedefleyerek kendi kendine dikkat mekanizmalarını iyileştirmeye devam etmektedir. YZ modellerinin karmaşıklığı arttıkça, kendi kendine dikkatin bir köşe taşı teknolojisi olarak kalması ve özel YZ uygulamalarından Yapay Genel Zeka (AGI) arayışına kadar alanlarda ilerleme sağlaması beklenmektedir. Ultralytics HUB gibi araçlar ve platformlar, bu gelişmiş teknikleri içeren modellerin eğitimini ve dağıtımını kolaylaştırır.