مسرد المصطلحات

التكيف منخفض الرتبة (LoRA)

اكتشف كيف تقوم LoRA بضبط نماذج الذكاء الاصطناعي الكبيرة مثل YOLO بكفاءة، مما يقلل من التكاليف ويتيح نشر الحافة بأقل قدر من الموارد.

LoRA، أو التكيف منخفض الرتبة، هي تقنية عالية الكفاءة تُستخدم لتكييف نماذج التعلم الآلي الكبيرة المدربة مسبقًا (ML) لمهام محددة دون الحاجة إلى إعادة تدريب النموذج بأكمله. تم تفصيلها في الأصل في ورقة بحثية من قبل باحثي مايكروسوفت، وقد أصبحت تقنية LoRA حجر الزاوية في الضبط الدقيق الفعال للمعلمات (PEFT). وهو يقلل بشكل كبير من التكلفة الحسابية ومتطلبات التخزين المرتبطة بتخصيص النماذج الضخمة، مثل نماذج اللغة الكبيرة (LLMs ) ونماذج الأساس الأخرى.

كيف تعمل LoRA

بدلاً من تحديث المليارات من أوزان النموذج في نموذج مُدرَّب مسبقاً، تقوم LoRA بتجميدها جميعاً. ثم يقوم بعد ذلك بحقن زوج من المصفوفات الصغيرة القابلة للتدريب - تسمى المحولات منخفضة الرتبة - في طبقات محددة من النموذج، وغالبًا ما يكون ذلك ضمن آلية الانتباه في بنية المحول. أثناء عملية التدريب، يتم تحديث معلمات هذه المصفوفات الجديدة الأصغر بكثير فقط. الفكرة الأساسية هي أن التغييرات اللازمة لتكييف النموذج مع مهمة جديدة يمكن تمثيلها بمعلمات أقل بكثير مما يحتويه النموذج الأصلي. يستفيد هذا من مبادئ مشابهة لتقليل الأبعاد لالتقاط المعلومات الأساسية للتكيف في شكل مضغوط. وبمجرد اكتمال التدريب، يمكن دمج المحول الصغير مع الأوزان الأصلية أو الاحتفاظ به منفصلاً لتبديل المهام المعيارية.

التطبيقات الواقعية

إن كفاءة LoRA تجعلها مثالية لمجموعة واسعة من التطبيقات، خاصةً عند الحاجة إلى نماذج مخصصة متعددة.

  • تخصيص روبوتات الدردشة الآلية: يمكن لشركة ما أن تأخذ روبوت د ردشة آلياً قوياً للأغراض العامة وتستخدم LoRA لتدريبها على قاعدة معارفها الداخلية. ويؤدي ذلك إلى إنشاء روبوت دردشة آلي متخصص في خدمة العملاء يفهم المصطلحات الخاصة بالشركة دون التكلفة الهائلة للضبط الكامل.
  • فن الذكاء الاصطناعي ونقل الأسلوب: يستخدم الفنانون والمصممون "لورا" لتكييف نماذج الذكاء الاصطناعي التوليدي مثل "الانتشار المستقر" مع أسلوب فني معين. من خلال تدريب المحول على مجموعة صغيرة من صورهم الخاصة، يمكنهم توليد فن جديد يحاكي جمالياتهم الفريدة، وهي ممارسة شائعة على منصات مثل Hugging Face.

لورا مقابل المفاهيم ذات الصلة

من المفيد التمييز بين LoRA وتقنيات تكييف النماذج الأخرى:

  • الضبط الكامل: تقوم هذه الطريقة بتحديث جميع أوزان نموذج مُدرّب مسبقًا على مجموعة بيانات جديدة. وعلى الرغم من فعاليتها في كثير من الأحيان، إلا أنها تتطلب موارد حاسوبية كبيرة(وحدة معالجة الرسومات) وتخزينًا كبيرًا لكل نموذج مُعدّل. على النقيض من ذلك، تقوم LoRA بتجميد الأوزان الأصلية وتدريب مصفوفات المحول الصغيرة المحقونة فقط. يمكنك العثور على مزيد من التفاصيل في مدخل مسرد مصطلحات الضبط الدقيق الخاص بنا والنظرة العامة للضبط الدقيق من NVIDIA.
  • الضبط الموجه: تُبقي هذه التقنية أوزان النموذج مجمّدة تمامًا، وبدلًا من ذلك تتعلم "موجهات ناعمة" مستمرة (متجهات مضافة إلى تضمينات المدخلات) لتوجيه سلوك النموذج لمهام محددة. على عكس LoRA، فهو لا يعدل أي أوزان للنموذج، بل يركز فقط على تكييف تمثيل المدخلات. اقرأ المزيد حول الضبط الفوري وهندسة التوجيهات.
  • طرق أخرى لضبط كفاءة المعلمات: LoRA هي مجرد تقنية واحدة ضمن المجال الأوسع للضبط الفعال للمعلمات (PEFT). تشمل الأساليب الأخرى ضبط المحول (مشابه ولكن بهياكل محول مختلفة قليلاً)، وضبط البادئة، و IA³، وكل منها يقدم مفاضلات مختلفة في كفاءة المعلمة والأداء. تتوفر هذه الطرق بشكل شائع في أطر عمل مثل مكتبة عناق الوجه PEFT.

وباختصار، توفر LoRA طريقة قوية وفعالة من حيث الموارد لتخصيص نماذج أساسية كبيرة مدربة مسبقًا لمجموعة واسعة من المهام المحددة في كل من معالجة اللغات الطبيعية (NLP) والرؤية الحاسوبية، مما يجعل الذكاء الاصطناعي المتقدم أكثر عملية وسهولة في الوصول إليه. يسمح هذا النهج بإدارة ونشر العديد من النماذج المتخصصة بسهولة، وهي عملية مبسطة من خلال منصات مثل Ultralytics HUB لإدارة دورات حياة النماذج.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون ونمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة