تعرّف على كيفية تدريب الشبكات العصبية بالترحيل العكسي وتقليل معدلات الخطأ وتشغيل تطبيقات الذكاء الاصطناعي مثل التعرف على الصور والبرمجة اللغوية العصبية بكفاءة.
التكاثر العكسي، وهو اختصار لعبارة "الانتشار العكسي للأخطاء"، هو خوارزمية أساسية تُستخدم لتدريب الشبكات العصبية الاصطناعية، خاصة في التعلّم العميق. إنه المحرك الذي يسمح للنماذج بالتعلم من أخطائها من خلال حساب مقدار مساهمة كل معلمة (الوزن والانحياز) في الشبكة في الخطأ الكلي في التنبؤات بكفاءة. ثم يتم استخدام هذه المعلومات بواسطة خوارزميات التحسين لضبط المعلمات وتحسين أداء النموذج بمرور الوقت أثناء تدريب النموذج.
تتضمن العملية مرحلتين رئيسيتين بعد التنبؤ الأولي:
يعد الانتثار الخلفي أمرًا أساسيًا لنجاح التعلم العميق الحديث. فهو يمكّن من تدريب البنى العميقة والمعقدة للغاية، مثل الشبكات العصبية التلافيفية (CNNs) المستخدمة على نطاق واسع في الرؤية الحاسوبية، والشبكات العصبية المتكررة (RNNs) المستخدمة للبيانات المتسلسلة مثل النصوص. وبدون طريقة فعالة لحساب التدرجات مثل التدرج العكسي الذي يوفره التدرج العكسي، فإن تدريب هذه النماذج الكبيرة سيكون غير ممكن من الناحية الحسابية. يسمح للنماذج بتعلم النماذج تلقائيًا ميزات وعلاقات معقدة من كميات هائلة من البيانات، مما يشكل أساس العديد من التطورات في مجال الذكاء الاصطناعي منذ انتشاره في الثمانينيات، وهو ما تم تفصيله في المصادر التي تغطي تاريخ التعلم العميق.
يُستخدم الانتثار الخلفي ضمنيًا كلما تم تدريب نموذج تعلم عميق. فيما يلي مثالان:
على الرغم من ارتباطها الوثيق، إلا أن الانتشار الخلفي يختلف عن التدرج في التدرج. فالانتشار العكسي هو الخوارزمية المخصصة لحساب تدرجات دالة الخسارة فيما يتعلق بمعلمات الشبكة. وانتساب التدرج (ومتغيراته) هي خوارزمية التحسين التي تستخدم هذه التدرجات المحسوبة لتحديث المعلمات بشكل متكرر وتقليل الخسارة. يمكن أن يعاني الانتساب الخلفي أحيانًا من مشاكل مثل مشكلة تلاشي التدرج، خاصةً في الشبكات العميقة جدًا، على الرغم من أن تقنيات مثل استخدام دوال التفعيل ReLU والوصلات المتبقية تساعد في التخفيف من ذلك.