مسرد المصطلحات

الانتباه الذاتي

اكتشف قوة الانتباه الذاتي في الذكاء الاصطناعي، وإحداث ثورة في البرمجة اللغوية العصبية والرؤية الحاسوبية والتعرف على الكلام بدقة مدركة للسياق.

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

يُعد الانتباه الذاتي آلية محورية في الذكاء الاصطناعي الحديث، وهي بارزة بشكل خاص في بنية المحول التي تم تقديمها في الورقة البحثية المؤثرة"الانتباه هو كل ما تحتاجه". فهي تسمح للنماذج بتقييم أهمية الأجزاء المختلفة من تسلسل مدخلات واحد عند معالجة المعلومات، مما يتيح فهمًا أعمق للسياق والعلاقات داخل البيانات نفسها. وهذا يتناقض مع أساليب الانتباه السابقة التي ركزت في المقام الأول على الربط بين تسلسلات المدخلات والمخرجات المختلفة. وقد كان تأثيره تحويليًا في معالجة اللغات الطبيعية (NLP ) ويزداد أهميته في الرؤية الحاسوبية (CV).

كيفية عمل الانتباه الذاتي

تتمثل الفكرة الأساسية وراء الانتباه الذاتي في محاكاة قدرة الإنسان على التركيز على أجزاء محددة من المعلومات مع مراعاة سياقها. فعند قراءة جملة، على سبيل المثال، غالباً ما يعتمد معنى الكلمة على الكلمات المحيطة بها. يُمكّن نموذج الانتباه الذاتي نموذج الذكاء الاصطناعي من تقييم العلاقات بين جميع العناصر (مثل الكلمات أو بقع الصور) ضمن تسلسل الإدخال. ويحسب "درجات الانتباه" لكل عنصر بالنسبة لكل عنصر آخر في التسلسل. وتحدد هذه الدرجات مقدار "الانتباه" أو الوزن الذي يجب أن يحصل عليه كل عنصر عند إنشاء تمثيل مخرجات لعنصر معين، مما يسمح للنموذج بالتركيز على الأجزاء الأكثر صلة من المدخلات لفهم السياق والتبعيات بعيدة المدى. تتضمّن هذه العملية إنشاء تمثيلات استعلام ومفتاح وقيمة لكل عنصر من المدخلات، وغالبًا ما تكون مشتقة من تضمينات المدخلات باستخدام أطر مثل PyTorch أو TensorFlow.

المزايا الرئيسية

يوفر الانتباه الذاتي العديد من المزايا مقارنةً بتقنيات المعالجة التسلسلية القديمة مثل الشبكات العصبية المتكررة (RNNs) وبعض جوانب الشبكات العصبية التلافيفية (CNNs):

  • التقاط التبعيات بعيدة المدى: تتفوق في الربط بين العناصر المتباعدة في التسلسل، وتتغلب على القيود مثل التدرجات المتلاشية الشائعة في الشبكات الشبكية ذات التدرجات المتدرجة.
  • التوازي: يمكن حساب درجات الانتباه بين جميع أزواج العناصر في وقت واحد، مما يجعلها مناسبة للغاية للمعالجة المتوازية على أجهزة مثل وحدات معالجة الرسوميات وتسريع تدريب النموذج بشكل كبير.
  • قابلية التفسير: يمكن أن يوفر تحليل أوزان الانتباه رؤى حول عملية اتخاذ القرار في النموذج، مما يساهم في قابلية التفسير للذكاء الاصطناعي (XAI).
  • تحسين الفهم السياقي: من خلال تقييم أهمية جميع أجزاء المدخلات، تكتسب النماذج فهمًا أكثر ثراءً للسياق، مما يؤدي إلى أداء أفضل في المهام المعقدة أثناء الاستدلال. هذا أمر بالغ الأهمية للمهام التي يتم تقييمها على مجموعات بيانات كبيرة مثل ImageNet.

الانتباه الذاتي مقابل الانتباه التقليدي

وفي حين أن كلاهما يندرج تحت مظلة آليات الانتباه، إلا أن الانتباه الذاتي يختلف بشكل كبير عن الانتباه التقليدي. عادةً ما يحسب الانتباه التقليدي درجات الانتباه بين عناصر تسلسلين مختلفين، مثل ربط الكلمات في جملة المصدر بالكلمات في الجملة الهدف أثناء الترجمة الآلية (على سبيل المثال، من English إلى الفرنسية). إلا أن الانتباه الذاتي يحسب درجات الانتباه ضمن تسلسل واحد، ويربط عناصر المدخلات بعناصر أخرى من نفس المدخلات. هذا التركيز الداخلي هو مفتاح فعاليتها في المهام التي تتطلب فهمًا عميقًا لبنية المدخلات وسياقها، على عكس الأساليب التي تركز فقط على السمات المحلية عبر الالتفاف.

تطبيقات في الذكاء الاصطناعي

يُعد الانتباه الذاتي أمرًا أساسيًا للعديد من النماذج الحديثة في مختلف المجالات:

الاتجاهات المستقبلية

تستمر الأبحاث في تحسين آليات الانتباه الذاتي، بهدف زيادة الكفاءة الحسابية (على سبيل المثال، أساليب مثل FlashAttention ومتغيرات الانتباه المتناثرة) وقابلية التطبيق على نطاق أوسع. ومع ازدياد تعقيد نماذج الذكاء الاصطناعي، من المتوقع أن يظل الانتباه الذاتي تقنية أساسية تقود التقدم في مجالات من تطبيقات الذكاء الاصطناعي المتخصصة مثل الروبوتات إلى السعي وراء الذكاء الاصطناعي العام (AGI). تعمل أدوات ومنصات مثل Ultralytics HUB على تسهيل تدريب ونشر النماذج التي تتضمن هذه التقنيات المتقدمة، وغالباً ما تكون متاحة عبر مستودعات مثل Hugging Face.

قراءة الكل