المسرد

المحول

استكشف تأثير نماذج المحولات في الذكاء الاصطناعي باستخدام Ultralytics. اكتشف بنيتها ومكوناتها الرئيسية وتطبيقاتها في البرمجة اللغوية العصبية والرؤية.

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

أصبح نموذج Transformer حجر الزاوية في مجال الذكاء الاصطناعي، خاصةً في معالجة اللغة الطبيعية (NLP)، ومؤخراً في مهام الرؤية الحاسوبية. تم تقديمه لأول مرة في ورقة بحثية بعنوان "الانتباه هو كل ما تحتاجه" لفاسواني وآخرين في عام 2017، وقد غيرت بنية المحول بشكل أساسي كيفية معالجة الآلات للغة وفهمها من خلال الاستفادة من آليات الانتباه الذاتي.

فهم المحولات

صُممت المحولات للتعامل مع البيانات المتسلسلة بمرونة أكبر من النماذج السابقة مثل الشبكات العصبية المتكررة (RNNs) والشبكات العصبية التلافيفية (CNNs). على عكس الشبكات العصبية المتكررة، التي تعالج البيانات بالتتابع، تسمح المحولات بتوازي أكبر بكثير، مما يقلل بشكل كبير من وقت التدريب ويعزز الأداء على مجموعات البيانات الكبيرة.

تُعد آلية الانتباه الذاتي أساسية في نموذج Transformer. يسمح هذا للنموذج بتقييم أهمية الكلمات المختلفة في الجملة، مما يوفر فهمًا وتوليدًا للغة مع مراعاة السياق. اقرأ المزيد عن الانتباه الذاتي في صفحة مسرد مصطلحات الانتباه الذاتي.

المكونات الرئيسية

  1. بنية المشفر-فك التشفير: المحول مبني على هيكلية مشفر-مفك ترميز، حيث يقوم المشفر بمعالجة نص المدخلات، ويقوم مفكك الترميز بتوليد المخرجات. ويتكون كل منهما من طبقات متعددة تحتوي على آلية تشفير ذاتية وشبكة عصبية للتغذية إلى الأمام.

  2. الترميز الموضعي: نظرًا لأن المحولات لا تفهم بطبيعتها ترتيب التسلسل، تتم إضافة الترميز الموضعي إلى تضمينات الإدخال للمساعدة في ترميز موضع الكلمات داخل التسلسل.

  3. آلية الانتباه: تقع في قلب المحول آلية الانتباه التي تعين مستويات مختلفة من الأهمية لكل جزء من تسلسل المدخلات، مما يسمح له بالتركيز على الأجزاء ذات الصلة أثناء توليد المخرجات.

التطبيقات الواقعية

معالجة اللغات الطبيعية

دعمت المحولات التطورات الرئيسية في مجال البرمجة اللغوية العصبية. وضعت النماذج القائمة على بنية المحولات، مثل GPT-3 و BERT، معايير جديدة في مهام تتراوح بين توليد النصوص وتحليل المشاعر والترجمة الآلية. تتعامل هذه النماذج مع المهام بشكل أفضل من سابقاتها من خلال فهم السياق على مستوى دقيق.

  • يُعرف BERT بالمهام التي تتطلب فهم كل من السياق الأيسر والأيمن للكلمات من خلال آلية الانتباه ثنائي الاتجاه.

الرؤية الحاسوبية

على الرغم من أن المحولات مصممة في البداية لبرمجة اللغة اللغويات العصبية، إلا أنه يتم تطبيقها بشكل متزايد على مهام الرؤية الحاسوبية. تستخدم نماذج مثل ViT (محول الرؤية) المحولات لتحقيق أحدث النتائج في تصنيف الصور وتجزئتها وغير ذلك. تعمق في دور المحولات في نماذج الرؤية لفهم تأثيرها على الرؤية الحاسوبية.

بالنسبة للمهتمين، يوفر Ultralytics HUB أدوات لدمج نماذج المحولات في مجموعة من المشاريع، مما يعزز الأداء وقابلية التوسع. تعرف على المزيد حول نشر النماذج في تطبيقات العالم الحقيقي باستخدام Ultralytics HUB.

الفروق من النماذج ذات الصلة

  • شبكات RNNs و LSTMs: على عكس شبكات RNNs و LSTMs، يمكن للمحوّلات معالجة التسلسلات بالتوازي، مما يؤدي إلى تدريب أسرع وفعالية أفضل في التقاط التبعيات بعيدة المدى.

  • سي إن إن إن في حين تُستخدم الشبكات الشبكية المتكاملة تقليديًا لبيانات الصور، أثبتت المحولات فعاليتها نظرًا لقدرتها على التقاط العلاقات السياقية في البيانات دون التقيد بالتسلسلات الهرمية المكانية.

مزيد من الاستكشاف

استكشف إمكانات المحولات في الذكاء الاصطناعي من خلال قراءة الورقة البحثية "الانتباه هو كل ما تحتاجه" والأدبيات ذات الصلة. لمعرفة المزيد عن تطور هذه البنى، فكّر في التعرف على الاختلافات في النماذج مثل Transformer-XL و Longformer، التي تعالج قيود التسلسل في تصاميم المحولات الأصلية.

تستمر المحولات في دفع عجلة الابتكار في مجالات الذكاء الاصطناعي، مع توسع التطبيقات من البرمجة اللغوية العصبية إلى مجالات مثل الرعاية الصحية والتمويل وغيرها. ابقَ على اطلاع على أحدث الاتجاهات والتطورات في تكنولو جيا المحولاتUltralytics' مدونة ' للاطلاع على أحدث الاتجاهات والتطورات في تكنولوجيا المحولات.

قراءة الكل