مسرد المصطلحات

الشبكة العصبية المتكررة (RNN)

اكتشف قوة الشبكات العصبية المتكررة (RNNs) للبيانات المتسلسلة، بدءًا من البرمجة اللغوية العصبية إلى تحليل السلاسل الزمنية. تعلّم المفاهيم والتطبيقات الأساسية اليوم!

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

الشبكات العصبية المتكررة (RNNs) هي فئة من الشبكات العصبية (NNNs ) المصممة خصيصًا لمعالجة البيانات المتسلسلة، حيث يكون ترتيب المعلومات مهمًا. وعلى عكس شبكات التغذية الأمامية القياسية التي تعالج المدخلات بشكل مستقل، فإن الشبكات العصبية المتواترة لديها حلقات داخلية، مما يسمح للمعلومات من الخطوات السابقة في التسلسل بالاستمرار والتأثير على الخطوات اللاحقة. هذه "الذاكرة" تجعلها مناسبة تمامًا للمهام التي تتضمن تسلسلات مثل النصوص أو الكلام أو بيانات السلاسل الزمنية في مجالات الذكاء الاصطناعي (AI) والتعلم الآلي (ML).

كيف تعمل الشبكات العصبية المتكررة

والفكرة الأساسية وراء شبكة RNN هي الحالة المخفية التي تعمل بمثابة ذاكرة الشبكة. في كل خطوة في التسلسل، تأخذ شبكة RNN المدخلات الحالية والحالة المخفية من الخطوة السابقة لإنتاج مخرجات وتحديث حالتها المخفية. ثم يتم تمرير هذه الحالة المخفية المحدثة إلى الخطوة التالية. يسمح هذا الاتصال المتكرر للشبكة بالحفاظ على السياق مع مرور الوقت. يتضمن تدريب شبكات RNNs عادةً نوعًا مختلفًا من الترحيل العكسي يسمى الترحيل العكسي عبر الزمن (BPTT)، والذي يكشف الشبكة على طول التسلسل لحساب التدرجات. تم تطوير متغيرات أكثر تقدمًا مثل الذاكرة قصيرة الأجل الطويلة (LSTM) والوحدة المتكررة ذات البوابة (GRU) لمعالجة بعض القيود التي تواجه شبكات RNN البسيطة، وخاصةً مشكلة التدرج المتلاشي، مما يتيح لها تعلم التبعيات طويلة الأجل بشكل أكثر فعالية. يمكنك استكشاف وتدريب نماذج مختلفة، بما في ذلك النماذج القائمة على التسلسل، باستخدام منصات مثل Ultralytics HUB.

تطبيقات الشبكات الشبكية الشبكية العصبية العصبية العصبية

كانت شبكات RNNs أساسية في تطوير مهام نمذجة التسلسل في مختلف المجالات. فيما يلي بعض الأمثلة:

شبكات RNNs مقابل الشبكات الشبكية الشبكية الأخرى

ينطوي فهم الشبكات العصبية العصبية المستقرة على التمييز بينها وبين أنواع الشبكات العصبية الأخرى:

  • شبكات التغذية الأمامية (على سبيل المثال: شبكات التغذية التلقائية (MLPs) وشبكات CNNs): تعالج هذه الشبكات المدخلات ذات الحجم الثابت دون ذاكرة متأصلة للمدخلات السابقة. تتدفق المعلومات في اتجاه واحد، من المدخلات إلى المخرجات. بينما تتفوق شبكات CNN في التسلسلات الهرمية المكانية (على سبيل المثال، في تصنيف الصور أو اكتشاف الأجسام)، فإن شبكات الشبكات الشبكية الشبكية المترابطة مصممة للتسلسلات الزمنية. يمكنك معرفة المزيد حول نماذج اكتشاف الكائنات مثل Ultralytics YOLO والتي تستخدم في المقام الأول بنيات شبكات CNN و Transformer.
  • المحولات: تفوقت المحولات، التي تستخدم آليات الانتباه، إلى حد كبير على الشبكات الشبكية العصبية العصبية الروبوتية في الأداء المتطور للعديد من مهام البرمجة اللغوية العصبية. ويمكنها نمذجة التبعيات بعيدة المدى بشكل أكثر فعالية وتسمح بمزيد من التوازي أثناء التدريب، والتغلب على القيود الرئيسية لشبكات RNN. اقرأ عن تطور اكتشاف الكائنات لترى كيف طورت البنى المختلفة قدرات الذكاء الاصطناعي.
  • LSTM و GRU: هذه أنواع محددة من الشبكات الشبكية العصبية الشبكية ذات الشبكات الشبكية العصبية القابلة للتبديل (RNNs) المصممة بآليات تحكم أفضل في تدفق المعلومات والتخفيف من مشكلة التدرج المتلاشي، مما يجعلها أكثر مهارة في تعلم التسلسلات الطويلة مقارنةً بشبكات الشبكات الشبكية العصبية القابلة للتبديل (RNNs) الفانيليا. تقدم مواد دورة CS230 في جامعة ستانفورد نظرة عامة جيدة على هذه المتغيرات.

على الرغم من أن البنى الأحدث مثل المحولات أصبحت مهيمنة في العديد من المجالات، إلا أن شبكات الشبكات الشبكية العصبية العصبية المتسلسلة تظل مفاهيم أساسية مهمة في التعلم العميق ولا تزال ذات صلة في تطبيقات محددة أو كمكونات ضمن نماذج هجينة أكبر. يوفر فهم آلياتها نظرة ثاقبة قيّمة حول تطور نمذجة التسلسل في الذكاء الاصطناعي. ولمزيد من الاستكشاف، تغطي مصادر مثل تخصص DeepLearning.AI مصادر مثل تخصص DeepLearning.AI شبكات الشبكات الشبكية العصبية المتسلسلة بالتفصيل.

قراءة الكل