تعرّف على كيفية تدريب الشبكات العصبية بالترحيل العكسي وتقليل معدلات الخطأ وتشغيل تطبيقات الذكاء الاصطناعي مثل التعرف على الصور والبرمجة اللغوية العصبية بكفاءة.
يعد التكاثر الخلفي، وهو اختصار لعبارة "الانتشار العكسي للأخطاء"، خوارزمية أساسية لتدريب الشبكات العصبية الاصطناعية (NNs)، خاصةً في مجال التعلم العميق (DL). وهي بمثابة الآلية الأساسية التي تمكن النماذج من التعلم من أخطائها أثناء عملية تدريب النموذج. وتحسب الخوارزمية بكفاءة مساهمة كل معلمة (مثل أوزان النموذج والتحيزات) داخل الشبكة في الخطأ الكلي الملاحظ في تنبؤات النموذج. ثم يتم استخدام معلومات التدرج هذه من خلال خوارزميات التحسين لضبط المعلمات بشكل متكرر، مما يؤدي إلى تحسين أداء النموذج ودقته بشكل تدريجي.
وعادةً ما تتبع عملية الانتشار العكسي مسارًا أماميًا أوليًا حيث تتدفق بيانات الإدخال عبر الشبكة لتوليد تنبؤ. بعد مقارنة التنبؤ بالقيمة المستهدفة الفعلية باستخدام دالة الخسارة، يتم تنفيذ خوارزمية الترحيل العكسي على مرحلتين رئيسيتين:
وبمجرد حساب التدرجات، تستخدم خوارزمية التحسين، مثل نزول التدرج أو المتغيرات مثل نزول التدرج العشوائي (SGD) أو مُحسِّن آدم، هذه التدرجات لتحديث weights and biases الشبكة weights and biases. والهدف من ذلك هو تقليل دالة الخسارة إلى الحد الأدنى، وتعليم الشبكة بشكل فعال لإجراء تنبؤات أفضل على مدى الحقب المتتالية.
لا يمكن الاستغناء عن الانتثار الخلفي في التعلّم العميق الحديث. فكفاءتها في حساب التدرجات تجعل تدريب البنى العميقة والمعقدة للغاية ممكنًا من الناحية الحسابية. ويشمل ذلك نماذج مثل الشبكات العصبية التلافيفية (CNNs)، التي تتفوق في مهام الرؤية الحاسوبية، والشبكات العصبية المتكررة (RNNs)، التي تُستخدم عادةً للبيانات المتسلسلة كما هو الحال في معالجة اللغات الطبيعية (NLP). بدون الترحيل العكسي، لن يكون تعديل ملايين المعلمات في النماذج الكبيرة مثل GPT-4 أو تلك التي تم تدريبها على مجموعات بيانات ضخمة مثل ImageNet أمرًا عمليًا. فهي تمكّن النماذج من تعلّم الميزات المعقدة والتمثيلات الهرمية من البيانات تلقائيًا، مما يدعم العديد من التطورات في مجال الذكاء الاصطناعي منذ انتشاره، كما هو مفصّل في المصادر التي تغطي تاريخ التعلم العميق. أطر عمل مثل PyTorch و TensorFlow تعتمد بشكل كبير على محركات التمايز التلقائي التي تطبق التكاثر العكسي.
من المهم التمييز بين الترحيل العكسي وخوارزميات التحسين. الترحيل العكسي هو الطريقة المستخدمة لحساب التدرجات (مساهمة الخطأ لكل معلمة). من ناحية أخرى، خوارزميات التحسين هي الاستراتيجيات التي تستخدم هذه التدرجات المحسوبة لتحديث معلمات النموذجweights and biases) من أجل تقليل الخسارة. يوفر الانتشار الخلفي اتجاه التحسين، بينما يحدد المُحسِّن حجم الخطوة(معدل التعلّم) وطريقة التحديث.
يُستخدم الانتثار الخلفي ضمنيًا كلما خضع نموذج التعلم العميق للتدريب. فيما يلي مثالان ملموسان: