مسرد المصطلحات

لونجفورمر

اكتشف Longformer، وهو نموذج المحول المحسّن للتسلسلات الطويلة، مما يوفر كفاءة قابلة للتطوير في معالجة اللغات الطبيعية وعلم الجينوم وتحليل الفيديو.

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

إن Longformer هو نوع من هندسة نماذج المحولات المصممة لمعالجة تسلسلات طويلة بشكل استثنائي من البيانات بشكل أكثر كفاءة من المحولات التقليدية. يعالج هذا التحسين القيد الرئيسي لنماذج المحولات القياسية، التي تعاني من صعوبة في التعامل مع المدخلات الطويلة بسبب القيود الحسابية التي تتدرج بشكل تربيعي مع طول التسلسل.

فهم المُشكِّل الطويل

تواجه نماذج المحولات التقليدية، رغم قوتها، تحديات عند معالجة تسلسلات طويلة من النصوص أو الصوت أو الفيديو. ينمو التعقيد الحسابي لآلية الانتباه الخاصة بها بشكل تربيعي مع طول تسلسل المدخلات، مما يجعلها غير عملية للمستندات الطويلة أو المدخلات عالية الدقة. يعالج Longformer هذه المشكلة من خلال تقديم آلية انتباه تتدرج خطيًا مع طول التسلسل. يسمح هذا الابتكار للنموذج بالتعامل مع مدخلات بآلاف أو حتى عشرات الآلاف من الرموز، مما يفتح إمكانيات جديدة لمعالجة السياقات الأطول في مختلف مهام الذكاء الاصطناعي.

مفتاح كفاءة Longformer هو آلية الانتباه الهجين، التي تجمع بين أنواع مختلفة من الانتباه:

  • انزلاق نافذة الانتباه: يرتبط كل رمز رمزي بعدد ثابت من الرموز حوله، مما يخلق سياقًا محليًا. هذا فعال من الناحية الحسابية ويلتقط التبعيات المحلية بفعالية.
  • انتباه عالمي: تنتبه بعض الرموز المحددة مسبقًا إلى جميع الرموز الأخرى، وتنتبه جميع الرموز إلى هذه الرموز العالمية. يسمح ذلك للنموذج بتعلم التمثيلات العالمية والحفاظ على السياق العام عبر التسلسل الطويل.
  • انتباه النافذة المنزلقة المتوسعة: مشابه لانتباه النافذة المنزلقة ولكن مع وجود فجوات (تمدد) في النافذة، مما يسمح بمجال استقبال فعال أكبر بتكلفة حسابية مماثلة.

من خلال الجمع الاستراتيجي بين آليات الانتباه هذه، يقلل Longformer بشكل كبير من العبء الحسابي مع الاحتفاظ بالقدرة على نمذجة التبعيات بعيدة المدى الضرورية لفهم المدخلات الطويلة. وهذا يجعل Longformer ذا قيمة خاصة في مهام معالجة اللغة الطبيعية (NLP) التي تتعامل مع المستندات أو المقالات أو المحادثات، وفي مهام الرؤية الحاسوبية التي تتضمن صورًا أو مقاطع فيديو عالية الدقة.

تطبيقات لونجفورمر

إن قدرة Longformer على التعامل مع التسلسلات الطويلة تجعله مناسبًا لمجموعة من التطبيقات التي يكون فيها طول السياق أمرًا بالغ الأهمية:

  • تلخيص المستندات: في المهام التي تتطلب فهم المستندات بأكملها لتوليد ملخصات متماسكة، تتفوق Longformer من خلال معالجة مدخلات النص الكامل. على سبيل المثال، في تحليل الصور القانونية أو الطبية، حيث يكون السياق من التقارير المطولة ضروريًا، يمكن لـ Longformer تقديم ملخصات أكثر شمولاً ودقة مقارنةً بالنماذج ذات النوافذ المحدودة السياق.
  • الإجابة عن الأسئلة على المستندات الطويلة: يتميز Longformer بفعالية عالية في أنظمة الإجابة على الأسئلة التي تحتاج إلى استرجاع المعلومات من مستندات مطولة. على سبيل المثال، في تطبيقات الذكاء الاصطناعي القانونية، يمكن استخدام Longformer للإجابة على أسئلة قانونية محددة استنادًا إلى مستندات قضايا أو قوانين مطولة، مما يوفر ميزة كبيرة على النماذج التي يمكنها معالجة مقتطفات من النص في كل مرة.
  • معالجة البيانات الجينومية: بالإضافة إلى النصوص، فإن بنية Longformer قابلة للتكيف مع أنواع البيانات المتسلسلة الأخرى، بما في ذلك التسلسل الجينومي. في مجال المعلوماتية الحيوية، يعد تحليل التسلسلات الطويلة للحمض النووي أو الحمض النووي الريبي أمرًا بالغ الأهمية لفهم العمليات البيولوجية والأمراض. يمكن ل Longformer معالجة هذه التسلسلات الطويلة لتحديد الأنماط والعلاقات التي قد تغفلها النماذج ذات القدرات السياقية الأقصر.
  • تحليل الفيديو الطويل: في مهام الرؤية الحاسوبية التي تتضمن مقاطع فيديو، خاصةً تلك التي تتطلب فهم الأحداث على مدى فترات طويلة، يمكن تطبيق Longformer لمعالجة تسلسلات طويلة من الإطارات. هذا الأمر مفيد في تطبيقات مثل المراقبة أو تحليل العمليات الجراحية الطويلة حيث يكون السياق الزمني أمرًا حيويًا.

موديلات المحولات الطويلة والمحولات

يعد Longformer تطورًا لبنية المحول الأصلي، وهو مصمم خصيصًا للتغلب على القيود الحسابية للمحولات القياسية عند التعامل مع التسلسلات الطويلة. في حين أن المحولات التقليدية تستخدم الانتباه الذاتي الكامل، وهو أمر معقد بشكل رباعي، يقدم Longformer أنماط انتباه متفرقة لتحقيق التعقيد الخطي. يجعل هذا من Longformer خيارًا أكثر قابلية للتطوير وفعالية للمهام التي تنطوي على تبعيات بعيدة المدى، مع الاحتفاظ بنقاط القوة الأساسية لبنية المحولات في التقاط العلاقات السياقية. بالنسبة للمهام ذات تسلسلات المدخلات الأقصر، قد تكون المحولات القياسية كافية، ولكن بالنسبة للتطبيقات التي تتطلب معالجة سياق واسع النطاق، توفر Longformer ميزة كبيرة. يمكنك استكشاف بنيات النماذج الأخرى مثل YOLO-NAS أو RT-DETR في النظام البيئي Ultralytics المصممة لمهام الكشف عن الكائنات بكفاءة ودقة، مما يعرض المشهد المتنوع لبنى النماذج في الذكاء الاصطناعي.

قراءة الكل