مسرد المصطلحات

نزول التدرج العشوائي (SGD)

اكتشف كيف يعمل التدرج العشوائي المنحدر المتدرج (SGD) على تحسين نماذج التعلُّم العميق بكفاءة لمجموعات البيانات الكبيرة مع تقارب أسرع.

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

تُعدّ خوارزمية نزول التدرج العشوائي (SGD) خوارزمية تحسين مستخدمة على نطاق واسع في مجال التعلم الآلي، لا سيما في تدريب نماذج التعلم العميق. وهي نوع مختلف من خوارزمية نزول التدرج التي تهدف إلى إيجاد الحد الأدنى لدالة ما، عادةً ما تكون دالة الخسارة، من خلال تحديث معلمات النموذج بشكل متكرر. وخلافًا لنسب التدرج التقليدي، الذي يحسب التدرج باستخدام مجموعة البيانات بأكملها، تقوم خوارزمية SGD بتحديث المعلمات باستخدام مجموعة فرعية واحدة أو مجموعة فرعية عشوائية صغيرة من نقاط البيانات في كل تكرار. هذا النهج يجعل SGD فعالاً من الناحية الحسابية ومناسبًا تمامًا لمجموعات البيانات الكبيرة.

كيف يعمل نزول التدرج العشوائي

في التعلم الآلي، غالبًا ما يكون الهدف هو تقليل دالة الخسارة التي تقيس الفرق بين تنبؤات النموذج والقيم الفعلية. يحقق ذلك من خلال تعديل معلمات النموذج بشكل متكرر في الاتجاه الذي يقلل من الخسارة. في كل تكرار، تختار خوارزمية SGD عشوائيًا نقطة بيانات أو مجموعة صغيرة من نقاط البيانات، وتحسب تدرج دالة الخسارة فيما يتعلق بالمعلمات باستخدام هذه المجموعة الفرعية، وتقوم بتحديث المعلمات عن طريق تحريكها في الاتجاه المعاكس للتدرج. تتكرر هذه العملية حتى تتقارب الخوارزمية إلى الحد الأدنى أو يتم استيفاء معيار التوقف.

المزايا الرئيسية لنسب التدرج العشوائي

الكفاءة: باستخدام مجموعة فرعية فقط من البيانات في كل تكرار، يقلل SGD بشكل كبير من التكلفة الحسابية مقارنةً بنسب التدرج، الذي يعالج مجموعة البيانات بأكملها. وهذا يجعل SGD مفيدًا بشكل خاص لتدريب النماذج على مجموعات البيانات الكبيرة. تعرف على المزيد حول تحسين نماذج التعلم الآلي على مدونةUltralytics .

تقارب أسرع: نظرًا للتحديثات المتكررة، يمكن أن تتقارب خوارزمية SGD بشكل أسرع من نزول التدرج الدفعي خاصة في المراحل الأولى من التدريب. تُدخل الطبيعة العشوائية للتحديثات ضوضاءً يمكن أن تساعد الخوارزمية على الهروب من الحد الأدنى المحلي وربما إيجاد حل أفضل.

استخدام الذاكرة: يتطلب SGD ذاكرة أقل لأنه يحتاج فقط إلى تخزين مجموعة فرعية صغيرة من البيانات في كل تكرار. وهذا مفيد عند التعامل مع مجموعات البيانات التي لا تتسع لها الذاكرة بالكامل.

النسب المتدرج العشوائي مقابل النسب المتدرج

بينما يهدف كل من SGD ونسب التدرج إلى تقليل الدالة إلى الحد الأدنى، إلا أنهما يختلفان في كيفية حساب التدرج. يحسب "نزول التدرج " التدرج باستخدام مجموعة البيانات بأكملها، مما يؤدي إلى تحديثات أكثر دقة ولكنها مكلفة حسابيًا. وعلى النقيض من ذلك، يستخدم SGD مجموعة فرعية واحدة أو مجموعة فرعية صغيرة من نقاط البيانات، مما يؤدي إلى تحديثات أسرع ولكن من المحتمل أن تكون أكثر ضوضاءً. ويعتمد الاختيار بين SGD ونسب التدرج على عوامل مثل حجم مجموعة البيانات والموارد الحسابية وسرعة التقارب المطلوبة.

التطبيقات الواقعية لنسب التدرج العشوائي في العالم الحقيقي

تدريب الشبكات العصبية العميقة: تُستخدم SGD بشكل شائع لتدريب الشبكات العصبية العميقة لمختلف المهام، بما في ذلك تصنيف الصور واكتشاف الأجسام ومعالجة اللغات الطبيعية. إن كفاءتها وقدرتها على التعامل مع مجموعات البيانات الكبيرة تجعلها خيارًا شائعًا في هذه التطبيقات. على سبيل المثال، يستخدم Ultralytics YOLO خوارزميات التحسين مثل SGD لتعزيز دقتها في سيناريوهات الاستدلال في الوقت الحقيقي.

التعلّم عبر الإنترنت: يعتبر SGD مناسبًا تمامًا لسيناريوهات التعلّم عبر الإنترنت حيث تصل البيانات بالتتابع. في مثل هذه الحالات، يمكن تحديث النموذج تدريجيًا عند توفر بيانات جديدة، دون الحاجة إلى إعادة التدريب على مجموعة البيانات بأكملها. وهذا مفيد بشكل خاص في تطبيقات مثل أنظمة التوصيات واكتشاف الاحتيال، حيث قد يتغير توزيع البيانات بمرور الوقت. استكشف كيف يُحدث الذكاء الاصطناعي تحولاً في مجال التمويل من خلال الأتمتة والخدمات الشخصية وتعزيز الأمن.

تقنيات التحسين المتقدمة القائمة على نزول التدرج العشوائي

تعتمد العديد من خوارزميات التحسين على مبادئ SGD لتحسين سرعة التقارب والاستقرار. وإحدى هذه الخوارزميات هي خوارزمية آدم المُحسِّن (Adam Optimizer)، التي تُكيِّف معدل التعلُّم لكل معلمة بناءً على معلومات التدرج التاريخي. يجمع آدم بين مزايا خوارزمية SGD ومعدلات التعلّم التكيّفية والزخم، مما يؤدي غالبًا إلى تقارب أسرع وأكثر قوة. استكشف المزيد عن خوارزميات التحسين لفهم كيفية تحسين دقة النموذج في مختلف الصناعات.

استنتاج

تُعدّ خوارزمية التدرج العشوائي من خوارزميات التحسين القوية والمستخدمة على نطاق واسع في التعلم الآلي. إن قدرتها على التعامل مع مجموعات البيانات الكبيرة بكفاءة، بالإضافة إلى خصائص التقارب الأسرع، تجعلها خيارًا شائعًا لتدريب نماذج التعلم العميق. يعد فهم مبادئ ومزايا خوارزمية SGD أمرًا ضروريًا لأي شخص يعمل في مجال الذكاء الاصطناعي والتعلم الآلي. لمعرفة المزيد عن الذكاء الاصطناعي وتأثيراته، تفضل بزيارة Ultralytics للاطلاع على رؤى حول كيفية مساهمة هذه التقنيات في تغيير حياة الناس. تستفيد المنصات مثل Ultralytics HUB من هذه الخوارزميات لتبسيط تدريب النماذج ونشرها، مما يجعل الذكاء الاصطناعي متاحاً ومؤثراً في مجالات متنوعة.

قراءة الكل