اكتشف كيف تعمل دالة التنشيط SiLU (Swish) على تعزيز أداء التعلُّم العميق في مهام الذكاء الاصطناعي مثل اكتشاف الأجسام والبرمجة اللغوية العصبية.
الوحدة الخطية السيجيمية (SiLU)، والمعروفة أيضًا باسم دالة Swish، هي دالة تنشيط تُستخدم في الشبكات العصبية (NN). دوال التنشيط هي مكونات حاسمة تُدخل اللاخطية في الشبكة، مما يمكّنها من تعلم أنماط معقدة من البيانات. تم تطوير SiLU من قِبل باحثين في Google Brain واكتسبت شعبية بسبب فعاليتها في مهام التعلم العميق المختلفة، وغالبًا ما تتفوق على الدوال الأقدم مثل ReLU في النماذج الأعمق.
تأتي أهمية SiLU من خصائصها الفريدة التي يمكن أن تؤدي إلى تحسين أداء النموذج وديناميكيات التدريب. على عكس دالة ReLU المستخدمة على نطاق واسع، فإن دالة SiLU سلسة وغير رتيبة. هذا يعني أن مخرجاتها لا تزيد بشكل صارم مع مدخلاتها، مما يسمح لها بنمذجة دوال أكثر تعقيدًا. تساعد السلاسة في التحسين القائم على التدرج، مما يمنع التغييرات المفاجئة أثناء التدريب. تشير الأبحاث، بما في ذلك ورقة Swish الأصلية، إلى أن استبدال ReLU ب SiLU يمكن أن يحسن دقة التصنيف على مجموعات البيانات الصعبة مثل ImageNet، خاصة في الشبكات العميقة جدًا. وتساعد آلية التدرج الذاتي في تنظيم تدفق المعلومات، مما قد يخفف من مشاكل مثل مشكلة تلاشي التدرج.
تقدم SiLU ملفًا شخصيًا مختلفًا مقارنةً بوظائف التنشيط الشائعة الأخرى:
إن SiLU متعدد الاستخدامات وقد تم تطبيقه بنجاح في مجالات مختلفة حيث يتم استخدام نماذج التعلم العميق:
يتوفر SiLU بسهولة في أطر التعلم العميق الرئيسية مثل PyTorch (مثل torch.nn.SiLU
موثقة هنا) و TensorFlow (مثل tf.keras.activations.swish
موثقة هنا). منصات مثل Ultralytics HUB الدعم التدريب و النشر من النماذج التي تستخدم مثل هذه المكونات المتقدمة.