الشيك الأخضر
تم نسخ الرابط إلى الحافظة

ما هو تحسين النموذج؟ دليل سريع

تعلّم كيف يمكن لتقنيات تحسين النماذج مثل ضبط المعلمة الفائقة، وتشذيب النماذج، وتكميم النماذج أن تساعد نماذج الرؤية الحاسوبية على العمل بكفاءة أكبر.

تحسين النموذج هو عملية تهدف إلى تحسين كفاءة وأداء نماذج التعلم الآلي. من خلال تحسين بنية النموذج ووظيفته، يتيح التحسين للنماذج إمكانية تحقيق نتائج أفضل بأقل قدر من الموارد الحاسوبية وتقليل وقت التدريب والتقييم.

وتكتسب هذه العملية أهمية خاصة في مجالات مثل الرؤية الحاسوبية، حيث تتطلب النماذج غالباً موارد كبيرة لتحليل الصور المعقدة. في البيئات ذات الموارد المحدودة مثل الأجهزة المحمولة أو الأنظمة المتطورة، يمكن أن تعمل النماذج المحسّنة بشكل جيد مع موارد محدودة مع الحفاظ على دقتها.

يتم استخدام العديد من التقنيات بشكل شائع لتحقيق تحسين النموذج، بما في ذلك ضبط المعلمة الفائقة، وتشذيب النموذج، وتكميم النموذج، والدقة المختلطة. في هذه المقالة، سنستكشف هذه التقنيات والفوائد التي تجلبها لتطبيقات الرؤية الحاسوبية. لنبدأ!

فهم تحسين النموذج الأمثل

عادةً ما تحتوي نماذج الرؤية الحاسوبية على طبقات عميقة وهياكل معقدة رائعة للتعرف على الأنماط المعقدة في الصور، ولكنها قد تكون متطلبة جداً من حيث قوة المعالجة. عندما يتم نشر هذه النماذج على أجهزة ذات أجهزة محدودة، مثل الهواتف المحمولة أو الأجهزة المتطورة، يمكن أن تواجه بعض التحديات أو القيود. 

يمكن أن تؤدي محدودية طاقة المعالجة والذاكرة والطاقة على هذه الأجهزة إلى انخفاض ملحوظ في الأداء، حيث تكافح النماذج لمواكبة ذلك. تقنيات تحسين النموذج هي المفتاح لمعالجة هذه المخاوف. فهي تساعد على تبسيط النموذج، وتقليل احتياجاته الحسابية، وضمان استمراره في العمل بفعالية، حتى مع وجود موارد محدودة. يمكن تحسين النموذج عن طريق تبسيط بنية النموذج، أو تقليل دقة العمليات الحسابية، أو إزالة المكونات غير الضرورية لجعل النموذج أخف وأسرع.

الشكل 1. أسباب تحسين النماذج الخاصة بك (الصورة من قبل المؤلف).

فيما يلي بعض تقنيات تحسين النموذج الأكثر شيوعًا، والتي سنستكشفها بمزيد من التفصيل في الأقسام التالية:

  • الضبط الفائق: يتضمن الضبط المنهجي للمعاملات الفائقة، مثل معدل التعلّم وحجم الدُفعات لتحسين أداء النموذج.
  • التقليم النموذجي: تزيل هذه التقنية الأوزان والوصلات غير الضرورية من الشبكة العصبية، مما يقلل من تعقيدها وتكلفتها الحسابية.
  • تكميم النموذج: يتضمن التكميم الكمي تقليل دقة أوزان النموذج وتفعيلاته، عادةً من 32 بت إلى 16 بت أو 8 بت، مما يقلل بشكل كبير من مساحة الذاكرة والمتطلبات الحسابية.
  • تعديلات الدقة: يُعرف أيضًا باسم تدريب الدقة المختلطة، ويتضمن استخدام تنسيقات دقة مختلفة لأجزاء مختلفة من النموذج وتحسين استخدام الموارد دون المساس بالدقة.

الشرح المعلمات الفائقة في نماذج التعلم الآلي

يمكنك مساعدة النموذج على التعلم والأداء بشكل أفضل من خلال ضبط المعلمات الفائقة - الإعدادات التي تشكل كيفية تعلم النموذج من البيانات. ضبط المعلمات الفائقة هي تقنية لتحسين هذه الإعدادات وتحسين كفاءة النموذج ودقته. على عكس المعلمات التي يتعلمها النموذج أثناء التدريب، فإن المعلمات الفائقة هي قيم محددة مسبقًا توجه عملية التدريب.

دعنا نستعرض بعض الأمثلة على المعلمات الفائقة التي يمكن ضبطها:

  • معدل التعلم: تتحكم هذه المعلمة في حجم الخطوة التي يتخذها النموذج لضبط أوزانه الداخلية. يمكن لمعدل تعلّم أعلى أن يسرّع عملية التعلّم ولكنه قد يؤدي إلى فقدان الحل الأمثل، بينما قد يكون المعدل الأقل أكثر دقة ولكنه أبطأ.
  • حجم الدفعة: يحدد عدد عينات البيانات التي تتم معالجتها في كل خطوة تدريب. توفر أحجام الدفعات الأكبر حجمًا تعلمًا أكثر استقرارًا ولكنها تحتاج إلى ذاكرة أكبر. تتدرب الدفعات الأصغر بشكل أسرع ولكنها قد تكون أقل استقرارًا.
  • الحقب: يمكنك تحديد عدد المرات التي يرى فيها النموذج مجموعة البيانات الكاملة باستخدام هذه المعلمة. المزيد من الحقب الزمنية يمكن أن يحسن الدقة ولكن قد يؤدي إلى المخاطرة بالمبالغة في التهيئة.
  • حجم النواة: يحدد حجم المرشح في الشبكات العصبية التلافيفية (CNNs). تلتقط النواة الأكبر حجمًا أنماطًا أوسع ولكنها تحتاج إلى مزيد من المعالجة؛ بينما تركز النواة الأصغر حجمًا على تفاصيل أدق.

كيفية عمل ضبط المعلمة الفائقة

يبدأ ضبط المعلمة الفائقة بشكل عام بتحديد نطاق من القيم الممكنة لكل معلمة فائقة. ثم تستكشف خوارزمية البحث تركيبات مختلفة ضمن هذه النطاقات لتحديد الإعدادات التي تنتج أفضل أداء

تتضمن طرق الضبط الشائعة البحث الشبكي والبحث العشوائي والتحسين البايزي. يختبر بحث الشبكة كل مجموعة ممكنة من القيم ضمن النطاقات المحددة. يختار البحث العشوائي التوليفات بشكل عشوائي، وغالبًا ما يعثر على الإعدادات الفعالة بسرعة أكبر. يستخدم التحسين البايزي نموذجًا احتماليًا للتنبؤ بقيم المعلمات الفائقة الواعدة بناءً على النتائج السابقة. يقلل هذا النهج عادةً من عدد التجارب المطلوبة. 

في النهاية، يتم تقييم أداء النموذج لكل مجموعة من البارامترات الفائقة. تتكرر العملية حتى تتحقق النتائج المرجوة.

المعلمات الفائقة مقابل معلمات النموذج

أثناء العمل على ضبط المعلمات التشعبية، قد تتساءل عن الفرق بين المعلمات التشعبية ومعلمات النموذج

المعلمات الفائقة هي القيم التي يتم تعيينها قبل التدريب والتي تتحكم في كيفية تعلم النموذج، مثل معدل التعلم أو حجم الدفعة. يتم تثبيت هذه الإعدادات أثناء التدريب وتؤثر بشكل مباشر على عملية التعلم. من ناحية أخرى، يتم تعلم معلمات النموذج من قبل النموذج نفسه أثناء التدريب. وتشمل هذه المعلمات الأوزان والتحيزات، والتي يتم ضبطها أثناء تدريب النموذج وتوجيه تنبؤاته في نهاية المطاف. من حيث الجوهر، تشكل المعلمات الفائقة رحلة التعلم، في حين أن معلمات النموذج هي نتائج عملية التعلم هذه.

الشكل 2. مقارنة البارامترات والبارامترات الفائقة. 

أهمية تشذيب النماذج في التعلم العميق

تشذيب النموذج هو تقنية لتقليل الحجم تزيل الأوزان والمعلمات غير الضرورية من النموذج، مما يجعله أكثر كفاءة. في الرؤية الحاسوبية، خاصةً مع الشبكات العصبية العميقة، يمكن لعدد كبير من المعلمات، مثل الأوزان والتنشيطات (المخرجات الوسيطة التي تساعد في حساب المخرجات النهائية)، أن تزيد من التعقيد والمتطلبات الحسابية. يساعد التقليم على تبسيط النموذج من خلال تحديد وإزالة المعلمات التي تساهم بالحد الأدنى في الأداء، مما يؤدي إلى نموذج أكثر خفة وفعالية.

الشكل 3. قبل تشذيب النموذج وبعده.

بعد تدريب النموذج، يمكن لتقنيات مثل التقليم القائم على الحجم أو تحليل الحساسية تقييم أهمية كل معلمة. ثم يتم تشذيب المعلمات ذات الأهمية المنخفضة باستخدام واحدة من ثلاث تقنيات رئيسية: تشذيب الوزن أو تشذيب الخلايا العصبية أو التشذيب المنظم. 

يزيل التقليم الترجيحي اتصالات فردية ذات تأثير ضئيل على الخرج. يزيل تشذيب الخلايا العصبية خلايا عصبية كاملة تساهم مخرجاتها قليلاً في وظيفة النموذج. يزيل التقليم المهيكل أقسامًا أكبر، مثل المرشحات التلافيفية أو الخلايا العصبية في الطبقات المتصلة بالكامل، مما يؤدي إلى تحسين كفاءة النموذج. بمجرد اكتمال التقليم، يتم إعادة تدريب النموذج لضبط المعلمات المتبقية، مما يضمن احتفاظه بالدقة العالية في شكل مصغر.

تقليل زمن الاستجابة في نماذج الذكاء الاصطناعي باستخدام التكميم الكمي

يقلل التكميم الكمي للن موذج من عدد البتات المستخدمة لتمثيل أوزان النموذج وتفعيلاته. عادةً ما يحول قيم الفاصلة العائمة عالية الدقة 32 بت إلى دقة أقل، مثل الأعداد الصحيحة 16 بت أو 8 بت. من خلال تقليل دقة البتات، يقلل التكميم بشكل كبير من حجم النموذج وبصمة الذاكرة والتكلفة الحسابية.

في مجال الرؤية الحاسوبية، تُعد عوامات 32 بت قياسية، لكن التحويل إلى 16 بت أو 8 بت يمكن أن يحسن الكفاءة. هناك نوعان أساسيان من التكميم الكمي: التكميم الوزني والتكميم التنشيطي. يقلل التكميم الترجيحي من دقة أوزان النموذج، مما يوازن بين تقليل الحجم والدقة. يقلل التكميم التنشيط الكمي من دقة التنشيط، مما يقلل من متطلبات الذاكرة والحساب.

الشكل 4. مثال على التحويل الكمي من 32 بت عوامة 32 بت إلى عدد صحيح 8 بت.

كيف تعمل الدقة المختلطة على تسريع استنتاجات الذكاء الاصطناعي

الدقة المختلطة هي تقنية تستخدم دقة عددية مختلفة لأجزاء مختلفة من الشبكة العصبية. من خلال الجمع بين قيم ذات دقة أعلى، مثل عوامات 32 بت، مع قيم ذات دقة أقل، مثل عوامات 16 بت أو 8 بت، تتيح الدقة المختلطة لنماذج الرؤية الحاسوبية تسريع التدريب وتقليل استخدام الذاكرة دون التضحية بالدقة.

أثناء التدريب، يتم تحقيق الدقة المختلطة باستخدام دقة أقل في طبقات محددة مع الحفاظ على دقة أعلى عند الحاجة في جميع أنحاء الشبكة. يتم ذلك من خلال الصب وقياس الخسارة. يقوم الصب بتحويل أنواع البيانات بين الدقة المختلفة حسب ما يتطلبه النموذج. يعمل قياس الخسارة على ضبط الدقة المنخفضة لمنع التدفق العددي الناقص، مما يضمن تدريبًا مستقرًا. الدقة المختلطة مفيدة بشكل خاص للنماذج الكبيرة وأحجام الدفعات الكبيرة.

الشكل 5. يستخدم تدريب الدقة المختلطة كلاً من أنواع الفاصلة العائمة 16 بت (FP16) و32 بت (FP32).

الموازنة بين دقة النموذج وكفاءته

والآن بعد أن قمنا بتغطية العديد من تقنيات تحسين النموذج، دعنا نناقش كيفية تحديد أي منها يجب استخدامه بناءً على احتياجاتك الخاصة. يعتمد الاختيار على عوامل مثل الأجهزة المتاحة، والقيود الحاسوبية وقيود الذاكرة لبيئة النشر، ومستوى الدقة المطلوب. 

على سبيل المثال، تعد النماذج الأصغر والأسرع مناسبة بشكل أفضل للأجهزة المحمولة ذات الموارد المحدودة، بينما يمكن استخدام نماذج أكبر وأكثر دقة على الأنظمة عالية الأداء. إليك كيفية توافق كل تقنية مع الأهداف المختلفة:

  • التقليم: إنه مثالي لتقليل حجم النموذج دون التأثير بشكل كبير على الدقة، مما يجعله مثاليًا للأجهزة ذات الموارد المحدودة مثل الهواتف المحمولة أو أجهزة إنترنت الأشياء (IoT).
  • التكميم: خيار رائع لتقليص حجم النموذج وتسريع عملية الاستدلال، خاصةً على الأجهزة المحمولة والأنظمة المدمجة ذات الذاكرة المحدودة وقدرة المعالجة المحدودة. يعمل بشكل جيد للتطبيقات التي تكون فيها التخفيضات الطفيفة في الدقة مقبولة.
  • الدقة المختلطة: صُممت هذه التقنية للنماذج واسعة النطاق، وهي مصممة للنماذج واسعة النطاق، وتقلل من استخدام الذاكرة وتسرّع التدريب على أجهزة مثل وحدات معالجة الرسومات ووحدات معالجة الرسوم يات التي تدعم عمليات متعددة الدقة. وغالبًا ما تُستخدم في المهام عالية الأداء حيث تكون الكفاءة مهمة.
  • ضبط المقياس الفائق: على الرغم من أنها عملية حسابية مكثفة، إلا أنها ضرورية للتطبيقات التي تتطلب دقة عالية، مثل التصوير الطبي أو القيادة الذاتية.

الماخذ الرئيسية

يُعد تحسين النماذج جزءًا حيويًا من التعلم الآلي، خاصةً لنشر الذكاء الاصطناعي في تطبيقات العالم الحقيقي. تساعد تقنيات مثل ضبط المعلمات الفائقة وتشذيب النماذج والتكميم والدقة المختلطة في تحسين الأداء والكفاءة واستخدام الموارد لنماذج الرؤية الحاسوبية. تعمل هذه التحسينات على جعل النماذج أسرع وأقل استهلاكًا للموارد، وهو أمر مثالي للأجهزة ذات الذاكرة المحدودة وقوة المعالجة المحدودة. كما أن النماذج المحسّنة أسهل في التوسع والنشر عبر منصات مختلفة، مما يتيح حلول ذكاء اصطناعي فعالة وقابلة للتكيف مع مجموعة واسعة من الاستخدامات.

قم بزيارةمستودع Ultralytics GitHub وانضم إلى مجتمعنا لمعرفة المزيد عن تطبيقات الذكاء الاصطناعي في التصنيع والزراعة.

شعار الفيسبوكشعار تويترشعار لينكد إنرمز نسخ الرابط

اقرأ المزيد في هذه الفئة

دعونا نبني المستقبل
من الذكاء الاصطناعي معا!

ابدأ رحلتك مع مستقبل التعلم الآلي