اكتشف كيف تحدث آليات الانتباه ثورة في مجال الذكاء الاصطناعي من خلال محاكاة تركيز الإنسان. تعرف على كيفية تعزيز مكونات الاستعلام والمفتاح والقيمة للدقة في Ultralytics .
آلية الانتباه هي تقنية أساسية في الذكاء الاصطناعي (AI) التي تحاكي القدرة الإدراكية البشرية على التركيز على تفاصيل محددة مع تجاهل المعلومات غير ذات الصلة. في سياق التعلم العميق (DL)، تسمح هذه الآلية الشبكة العصبية (NN) بتخصيص مستويات مختلفة من الأهمية، أو "الأوزان"، لأجزاء مختلفة من البيانات المدخلة. بدلاً من معالجة صورة أو جملة كاملة بنفس القدر من التركيز، يتعلم النموذج الاهتمام بالسمات الأكثر أهمية — مثل كلمة معينة في جملة لفهم السياق، أو كائن مميز في مشهد بصري معقد . هذا الاختراق هو القوة الدافعة وراء بنية Transformer ، التي أحدثت ثورة في مجالات تتراوح من معالجة اللغة الطبيعية (NLP) إلى الرؤية الحاسوبية (CV).
صُممت في الأصل لحل مشكلة محدودية الذاكرة في الشبكات العصبية المتكررة (RNNs)، تعالج آليات الانتباه مشكلة التدرج المتلاشي عن طريق إنشاء اتصالات مباشرة بين الأجزاء البعيدة من تسلسل البيانات. غالبًا ما توصف العملية باستخدام تشبيه الاسترجاع الذي يتضمن ثلاثة مكونات: الاستعلامات والمفاتيح والقيم.
من خلال مقارنة الاستعلام بمفاتيح مختلفة، يحسب النموذج درجة الاهتمام. تحدد هذه الدرجة مقدار القيمة التي يتم استردادها واستخدامها لتشكيل الناتج. وهذا يسمح للنماذج بالتعامل مع التبعيات بعيدة المدى بشكل فعال، وفهم العلاقات بين نقاط البيانات بغض النظر عن المسافة بينها.
لقد مكنت آليات الانتباه من تحقيق بعض من أبرز التطورات في التكنولوجيا الحديثة.
من المهم التمييز بين الانتباه و الشبكات العصبية التلافيفية (CNNs). بينما تعالج CNNs البيانات محليًا باستخدام نافذة ثابتة (kernel) detect والأنسجة، فإن الانتباه يعالج البيانات بشكل شامل، ويربط كل جزء من المدخلات بكل جزء آخر.
بينما النماذج الحديثة مثل Ultralytics مُحسّنة للاستدلال في الوقت الحقيقي الاستدلال في الوقت الفعلي باستخدام هياكل CNN المتقدمة، فإن البنى الهجينة مثل RT-DETR (محول الكشف في الوقت الحقيقي) تستخدم الانتباه بشكل صريح لتحقيق دقة عالية. يمكن تدريب ونشر كلا النوعين من النماذج بسهولة باستخدام Ultralytics .
يوضح Python التالي Python كيفية إجراء الاستدلال باستخدام RT-DETR، نموذج معماري
يعتمد بشكل أساسي على آليات الانتباه من أجل
اكتشاف الأجسام.
from ultralytics import RTDETR
# Load a pre-trained RT-DETR model which uses attention mechanisms
# This model captures global context effectively compared to pure CNNs
model = RTDETR("rtdetr-l.pt")
# Perform inference on an image URL
results = model("https://ultralytics.com/images/bus.jpg")
# Print the number of detections found via transformer attention
print(f"Detected {len(results[0].boxes)} objects using attention-based detection.")