Bağlama duyarlı hassasiyetle NLP, bilgisayarla görme ve konuşma tanımada devrim yaratan yapay zekada öz dikkatin gücünü keşfedin.
Öz-dikkat, modern yapay zeka (AI) içinde önemli bir mekanizmadır ve özellikle etkili"Attention Is All You Need" makalesinde tanıtılan Transformer mimarisinde öne çıkmaktadır. Modellerin bilgiyi işlerken tek bir girdi dizisinin farklı bölümlerinin önemini tartmasına olanak tanıyarak verilerin kendi içindeki bağlam ve ilişkilerin daha derin bir şekilde anlaşılmasını sağlar. Bu, öncelikle farklı girdi ve çıktı dizilerini ilişkilendirmeye odaklanan önceki dikkat yöntemleriyle tezat oluşturmaktadır. Etkisi doğal dil işlemede (NLP) dönüştürücü olmuştur ve bilgisayarla görmede (CV) giderek daha önemli hale gelmektedir.
Öz-dikkatin arkasındaki temel fikir, insanların bağlamlarını göz önünde bulundurarak bilginin belirli kısımlarına odaklanma yeteneğini taklit etmektir. Örneğin bir cümleyi okurken, bir kelimenin anlamı genellikle onu çevreleyen kelimelere bağlıdır. Self-attention, bir yapay zeka modelinin bir girdi dizisi içindeki tüm öğeler (kelimeler veya görüntü yamaları gibi) arasındaki ilişkileri değerlendirmesini sağlar. Her bir öğe için dizideki diğer tüm öğelere göre 'dikkat puanları' hesaplar. Bu puanlar, belirli bir unsur için bir çıktı temsili oluştururken her bir unsurun ne kadar 'dikkat' veya ağırlık alması gerektiğini belirler ve modelin bağlamı ve uzun menzilli bağımlılıkları anlamak için girdinin en ilgili kısımlarına odaklanmasını sağlar. Bu süreç, her bir girdi öğesi için sorgu, anahtar ve değer temsilleri oluşturmayı içerir; bunlar genellikle aşağıdaki gibi çerçeveler kullanılarak girdi katıştırmalarından türetilir PyTorch veya TensorFlow.
Öz dikkat, Tekrarlayan Sinir Ağları (RNN 'ler) ve Evrişimsel Sinir Ağlarının (CNN'ler) bazı yönleri gibi eski dizi işleme tekniklerine göre çeşitli avantajlar sunar:
Her ikisi de dikkat mekanizmaları şemsiyesi altında yer alsa da, öz dikkat geleneksel dikkatten önemli ölçüde farklıdır. Geleneksel dikkat tipik olarak iki farklı dizinin unsurları arasındaki dikkat puanlarını hesaplar, örneğin makine çevirisi sırasında bir kaynak cümledeki kelimeleri hedef cümledeki kelimelerle ilişkilendirmek gibi (örneğin, English 'den Fransızca'ya). Ancak öz dikkat, girdinin unsurlarını aynı girdinin diğer unsurlarıyla ilişkilendirerek tek bir dizi içindeki dikkat puanlarını hesaplar. Bu dahili odaklanma, konvolüsyon yoluyla yalnızca yerel özelliklere odaklanan yöntemlerin aksine, girdinin yapısı ve bağlamının derinlemesine anlaşılmasını gerektiren görevlerdeki etkinliğinin anahtarıdır.
Öz-dikkat, çeşitli alanlardaki birçok son teknoloji model için temeldir:
Araştırmalar, daha fazla hesaplama verimliliği (örneğin, FlashAttention ve seyrek dikkat varyantları gibi yöntemler) ve daha geniş uygulanabilirlik hedefleyerek kendi kendine dikkat mekanizmalarını iyileştirmeye devam etmektedir. YZ modellerinin karmaşıklığı arttıkça, kendi kendine dikkatin bir köşe taşı teknolojisi olarak kalması ve robotik gibi özel YZ uygulamalarından Yapay Genel Zeka (AGI) arayışına kadar alanlarda ilerleme sağlaması beklenmektedir. Ultralytics HUB gibi araçlar ve platformlar, bu gelişmiş teknikleri içeren modellerin eğitimini ve dağıtımını kolaylaştırır ve genellikle aşağıdaki gibi havuzlar aracılığıyla kullanılabilir Hugging Face.