اكتشف كيف يُحسِّن Gradient Descent Descent نماذج الذكاء الاصطناعي مثل Ultralytics YOLO ، مما يتيح تنبؤات دقيقة في المهام بدءًا من الرعاية الصحية وحتى السيارات ذاتية القيادة.
نزول التدرج هي خوارزمية تحسين أساسية تُستخدم على نطاق واسع في التعلم الآلي (ML) والذكاء الاصطناعي (AI). وهي بمثابة الطريقة الأساسية لتدريب العديد من النماذج، بما في ذلك بنى التعلم العميق المعقدة مثل Ultralytics YOLO. يتمثل الهدف من نزول التدرج في تعديل المعلمات الداخلية للنموذج بشكل متكرر (غالبًا ما تسمى أوزان النموذج وانحيازاته) لتقليل دالة الخسارة، والتي تقيس الفرق بين تنبؤات النموذج والقيم المستهدفة الفعلية. تخيّل أنك تحاول العثور على أدنى نقطة في وادٍ وأنت معصوب العينين؛ يرشدك "نزول التدرج" من خلال تقييم المنحدر (التدرج) في موقعك الحالي واتخاذ خطوات صغيرة في الاتجاه الأكثر انحدارًا نحو الأسفل. تسمح هذه العملية التكرارية للنماذج بالتعلم من البيانات وتحسين دقتها التنبؤية.
ويُعد نزول التدرج أمرًا بالغ الأهمية بشكل خاص لتدريب النماذج المتطورة مثل الشبكات العصبية (NNs) التي تشكل أساس العديد من تطبيقات الذكاء الاصطناعي الحديثة. وغالباً ما تحتوي هذه النماذج، بما في ذلك تلك المستخدمة في اكتشاف الأجسام وتصنيف الصور ومعالجة اللغات الطبيعية (NLP)، على ملايين أو حتى مليارات المعلمات التي تحتاج إلى تحسين. يوفر النسب المتدرجة، إلى جانب متغيراتها، طريقة مجدية من الناحية الحسابية للتنقل في مشهد الخسارة المعقد (السطح عالي الأبعاد الذي يمثل قيمة الخسارة لجميع مجموعات المعلمات الممكنة) والعثور على قيم المعلمات التي تحقق أداءً جيدًا. وبدون التحسين الفعال من خلال النسب المتدرجة، فإن تدريب هذه النماذج الكبيرة على مستويات دقة عالية سيكون غير عملي. الأطر الرئيسية للتعلم الآلي مثل PyTorch و TensorFlow تعتمد بشكل كبير على تطبيقات مختلفة لنسب التدرج والخوارزميات ذات الصلة مثل التدرج الخلفي لحساب التدرجات اللازمة. يمكنك استكشاف نصائح تدريب النموذج للحصول على رؤى حول تحسين هذه العملية.
تتضمن الفكرة الأساسية لنسب التدرج حساب التدرج (اتجاه الصعود الأكثر انحدارًا) لدالة الخسارة فيما يتعلق بمعلمات النموذج ثم اتخاذ خطوة في الاتجاه المعاكس (انحدارًا). يتم التحكم في حجم هذه الخطوة من خلال معدل التعلم، وهو معيار مفرط حاسم يحدد مدى سرعة تعلم النموذج. يمكن أن يؤدي معدل التعلم الصغير جدًا إلى بطء التقارب، في حين أن المعدل الكبير جدًا يمكن أن يؤدي إلى تجاوز عملية التحسين للحد الأدنى أو حتى التباعد. توجد عدة أشكال مختلفة لنسب التدرج، تختلف بشكل أساسي في مقدار البيانات المستخدمة لحساب التدرج في كل خطوة:
نزول التدرج هو نوع محدد من خوارزمية التحسين يركز على التقليل التكراري لدالة الخسارة عن طريق تعديل معلمات النموذج باستخدام التدرجات. وهي تختلف عن المفاهيم المهمة الأخرى في تدريب النماذج:
يُعد Gradient Descent Descent هو المحرك وراء نماذج التدريب لعدد لا يحصى من تطبيقات الذكاء الاصطناعي في العالم الحقيقي، مما يتيح للنماذج التعلم من كميات هائلة من البيانات في سيناريوهات التعلم تحت الإشراف وما بعدها: