Derin öğrenmede öz-dikkatin temellerini keşfedin. Sorgu, Anahtar ve Değer vektörlerinin Transformers ve Ultralytics nasıl güçlendirdiğini öğrenin ve üstün yapay zeka elde edin.
Öz dikkat, derin öğrenmede modellerin bir girdi dizisi içindeki farklı öğelerin birbirlerine göre önemini ölçmelerini sağlayan temel bir mekanizmadır. Verileri sırayla işleyen veya yalnızca yerel komşuluklara odaklanan geleneksel mimarilerin aksine, öz dikkat, bir sinir ağının tüm bağlamı aynı anda incelemesine olanak tanır. Bu yetenek, sistemlerin bir cümledeki kelimeler veya bir görüntüdeki farklı bölgeler gibi verilerin uzak kısımları arasındaki karmaşık ilişkileri tanımlamasına yardımcı olur. Bu, üretken yapay zeka ve modern algılama sistemlerinde büyük ilerlemeler sağlayan Transformer mimarisinin temel yapı taşıdır. Bu, üretken yapay zeka ve modern algılama sistemlerinde büyük ilerlemeler sağlayan Transformer mimarisinin temel yapı taşıdır.
Mekanizma, her bir girdi özelliğine genellikle "dikkat puanı" olarak adlandırılan bir ağırlık atayarak bilişsel odağı taklit eder. Bu puanları hesaplamak için model, genellikle gömülü olaraktemsil edilen girdi verilerini üç farklı vektöre dönüştürür: Sorgu, Anahtar ve Değer.
Model, uyumluluğu belirlemek için bir öğenin Sorgusunu diğer tüm öğelerin Anahtarlarıyla karşılaştırır. Bu uyumluluk puanları, olasılık benzeri ağırlıklar oluşturmak için bir softmax fonksiyonu kullanılarak normalleştirilir. Bu ağırlıklar daha sonra Değerlere uygulanarak bağlam açısından zengin bir temsil oluşturur. Bu süreç, Büyük Dil Modelleri (LLM'ler) ve görme sistemlerinin önemli bilgilere öncelik verirken gürültüyü filtrelemesini sağlar.
Öz-dikkatin çok yönlülüğü, yapay zeka (AI) alanının çeşitli alanlarında yaygın olarak benimsenmesine yol açmıştır. Yapay zeka (AI).
Benzer kavramlarla birlikte sıklıkla tartışılsa da, bu terimlerin farklı teknik tanımları vardır:
Aşağıdaki Python , nasıl kullanılacağını göstermektedir. RTDETR, Transformer tabanlı bir nesne algılayıcıdır ve
içerir ultralytics paket. Standart evrişimli ağların aksine, bu model görsel özellikleri işlemek için büyük ölçüde
öz dikkat mekanizmasına dayanmaktadır.
from ultralytics import RTDETR
# Load the RT-DETR model which utilizes self-attention for detection
model = RTDETR("rtdetr-l.pt")
# Perform inference on an image to detect objects with global context
# Self-attention helps the model understand relationships between distant objects
results = model("https://ultralytics.com/images/bus.jpg")
# Print the number of objects detected
print(f"Detected {len(results[0].boxes)} objects using Transformer attention.")
Öz-dikkat, önceki Tekrarlayan Sinir Ağlarını (RNN'ler) engelleyen kaybolan gradyan sorununu etkili bir şekilde çözdü ve büyük temel modellerin eğitimini mümkün kıldı. Son derece etkili olmasına rağmen, standart öz-dikkatin hesaplama maliyeti, dizi uzunluğu ile birlikte karesel olarak artar. Bu sorunu çözmek için, mevcut araştırmalar verimli doğrusal dikkat mekanizmalarına odaklanmaktadır.
Ultralytics , bu gelişmeleri CNN'lerin hızını bağlamsal dikkat gücüne birleştiren YOLO26 gibi son teknoloji modellere Ultralytics üstün gerçek zamanlı çıkarımUltralytics . Bu optimize edilmiş modeller, Ultralytics aracılığıyla kolayca eğitilebilir ve dağıtılabilir, böylece yeni nesil akıllı uygulamalar geliştiren geliştiriciler için iş akışını kolaylaştırır.