استكشف Stochastic Gradient Descent Descent، وهي خوارزمية سريعة وفعالة لتحسين التعلُّم العميق المستخدم في الذكاء الاصطناعي، مثل Ultralytics YOLO نماذج لمهام الوقت الحقيقي.
التدرج العشوائي المنحدر المتدرج (SGD) هي خوارزمية تحسين شائعة تُستخدم لتدريب نماذج التعلم الآلي، خاصةً في التعلم العميق. إنها طريقة تكرارية لتقليل دالة الهدف، عادةً ما تكون دالة الخسارة، وهي طريقة حاسمة في كل من التعلّم الخاضع للإشراف وغير الخاضع للإشراف. وخلافًا لنسب التدرج القياسي، الذي يستخدم مجموعة البيانات بأكملها لحساب تدرج دالة الخسارة، تستخدم خوارزمية SGD مجموعة فرعية عشوائية من البيانات في كل خطوة، مما يجعلها أسرع وأكثر كفاءة، خاصةً في مجموعات البيانات الكبيرة.
يقوم SGD بتحديث معلمات النموذج عن طريق تحريكها في الاتجاه المعاكس لتدرج دالة الخسارة. وهو يقيّم التدرج باستخدام مثال تدريبي واحد أو بضعة أمثلة تدريبية فقط، مما يوفر تحديثات متكررة ويتيح تقاربًا أسرع في سيناريوهات البيانات واسعة النطاق. هذا يجعل SGD جذابًا للعديد من تطبيقات الذكاء الاصطناعي، بما في ذلك تلك التي تستخدم Ultralytics YOLO للكشف عن الكائنات وتجزئتها في الوقت الفعلي.
الكفاءة: من خلال النظر فقط في مجموعة فرعية من البيانات، يقلل SGD من النفقات العامة مقارنةً بالطرق ذات الدُفعات الكاملة مثل النسب المتدرجة.
التقارب: على الرغم من أن SGD قد يتذبذب أكثر من نزول التدرج الدفعي بسبب طبيعته العشوائية، إلا أنه غالبًا ما يجد حلولاً أفضل من خلال الهروب من الحلول الصغرى المحلية.
المرونة: يتوافق SGD مع مجموعة متنوعة من وظائف ونماذج الخسارة، مما يعزز فائدته في العديد من مهام التعلم الآلي.
يُعدّ الذكاء الاصطناعي المرئي جزءاً لا يتجزأ من نماذج التدريب التي تكتشف الأجسام الموجودة في البيئة وتصنفها، مثل المشاة والمركبات، مما يضمن التنقل الآمن. استكشف كيف تحافظ تطبيقات الذكاء الاصطناعي المرئي على السلامة على الطرق في المركبات ذاتية القيادة.
في التصوير الطبي، تساعد تقنية الذكاء الاصطناعي البصري في تطوير نماذج يمكنها تصنيف الصور للمساعدة في التشخيص، مثل تحديد الأورام في فحوصات التصوير بالرنين المغناطيسي. اكتشف التطبيقات المتنوعة للذكاء الاصطناعي البصري في مجال الرعاية الصحية.
على الرغم من أن نهج " نزول التدرج " هو النهج التقليدي، إلا أنه أقل كفاءة من نهج "SGD" في مجموعات البيانات الكبيرة بسبب حساب التدرج على مجموعة البيانات بأكملها في كل تكرار.
يعتمد مُحسِّن Adam Optimizer على SGD باستخدام معدلات التعلُّم التكيُّفي، مما يجعله خيارًا متقدمًا ومُفضَّلًا في كثير من الأحيان للنماذج المعقدة.
تسمح تقنية SGD بالتكرار السريع وغالباً ما تؤدي إلى تقارب أولي أسرع، وهو أمر مفيد لممارسي التعلم العميق الذين يحتاجون إلى تغذية راجعة في الوقت الفعلي كما هو الحال في تدريب نماذج Ultralytics YOLO . ومع ذلك، يمكن أن تؤدي العشوائية إلى تحديثات صاخبة؛ يمكن لتقنيات مثل جداول معدل التعلم والزخم أن تخفف من هذه المشكلات.
لا يزال أسلوب التدرج العشوائي المتدرج حجر الزاوية في تدريب نماذج الذكاء الاصطناعي نظرًا لبساطته وفعاليته. ويشمل تطبيقها مختلف الصناعات والمجالات البحثية، مما يجعلها أداة أساسية للممارسين الذين يهدفون إلى تسخير قوة التعلم الآلي وتكنولوجيا الذكاء الاصطناعي. لمعرفة المزيد عن الذكاء الاصطناعي وتأثيراته، تفضل بزيارة Ultralytics للاطلاع على رؤى حول كيفية مساهمة هذه التقنيات في تغيير حياة الناس.