مسرد المصطلحات

الوحدة الخطية السهمية (SiLU)

اكتشف كيف تعمل دالة التنشيط SiLU (Swish) على تعزيز أداء التعلُّم العميق في مهام الذكاء الاصطناعي مثل اكتشاف الأجسام والبرمجة اللغوية العصبية.

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

الوحدة الخطية السيجيمية (SiLU)، والمعروفة أيضًا باسم دالة Swish، هي دالة تنشيط تُستخدم في الشبكات العصبية (NN). دوال التنشيط هي مكونات حاسمة تُدخل اللاخطية في الشبكة، مما يمكّنها من تعلم أنماط معقدة من البيانات. تم تطوير SiLU من قِبل باحثين في Google Brain واكتسبت شعبية بسبب فعاليتها في مهام التعلم العميق المختلفة، وغالبًا ما تتفوق على الدوال الأقدم مثل ReLU في النماذج الأعمق.

الملاءمة والمزايا

تأتي أهمية SiLU من خصائصها الفريدة التي يمكن أن تؤدي إلى تحسين أداء النموذج وديناميكيات التدريب. على عكس دالة ReLU المستخدمة على نطاق واسع، فإن دالة SiLU سلسة وغير رتيبة. هذا يعني أن مخرجاتها لا تزيد بشكل صارم مع مدخلاتها، مما يسمح لها بنمذجة دوال أكثر تعقيدًا. تساعد السلاسة في التحسين القائم على التدرج، مما يمنع التغييرات المفاجئة أثناء التدريب. تشير الأبحاث، بما في ذلك ورقة Swish الأصلية، إلى أن استبدال ReLU ب SiLU يمكن أن يحسن دقة التصنيف على مجموعات البيانات الصعبة مثل ImageNet، خاصة في الشبكات العميقة جدًا. وتساعد آلية التدرج الذاتي في تنظيم تدفق المعلومات، مما قد يخفف من مشاكل مثل مشكلة تلاشي التدرج.

مقارنة مع وظائف التنشيط الأخرى

تقدم SiLU ملفًا شخصيًا مختلفًا مقارنةً بوظائف التنشيط الشائعة الأخرى:

  • ReLU (الوحدة الخطية المعدلة): أبسط وفعالة من الناحية الحسابية، ولكن يمكن أن تعاني من مشكلة "الوحدة الخطية المعدلة المعدلة المحتضرة" حيث تصبح الخلايا العصبية غير نشطة. وحدة ريلو رتيبة وليست سلسة عند الصفر.
  • ReLU المتسرب: تحسين على ReLU يعالج مشكلة الخلايا العصبية المحتضرة من خلال السماح بتدرج صغير غير صفري للمدخلات السالبة. مثل ReLU، فإن ReLU المتسرّبة رتيبة.
  • GELU (الوحدة الخطية للخطأ الغاوسي): دالة تنشيط سلسة أخرى، وغالبًا ما تستخدم في نماذج المحولات. تقوم GELU بترجيح المدخلات حسب مقدارها بدلاً من مجرد الترجيح بالإشارة مثل ReLU. يمكن النظر إلى SiLU كبديل سلس يؤدي أحيانًا أداءً أفضل من الناحية التجريبية. يمكنك العثور على نظرة عامة على دالة التنشيط العامة لمزيد من المقارنات.

تطبيقات SiLU

إن SiLU متعدد الاستخدامات وقد تم تطبيقه بنجاح في مجالات مختلفة حيث يتم استخدام نماذج التعلم العميق:

يتوفر SiLU بسهولة في أطر التعلم العميق الرئيسية مثل PyTorch (مثل torch.nn.SiLUموثقة هنا) و TensorFlow (مثل tf.keras.activations.swishموثقة هنا). منصات مثل Ultralytics HUB الدعم التدريب و النشر من النماذج التي تستخدم مثل هذه المكونات المتقدمة.

قراءة الكل