اكتشف كيف تقوم LoRA بضبط نماذج الذكاء الاصطناعي الكبيرة مثل YOLO بكفاءة، مما يقلل من التكاليف ويتيح نشر الحافة بأقل قدر من الموارد.
LoRA، أو التكيف منخفض الرتبة، هي تقنية عالية الكفاءة تُستخدم لتكييف نماذج التعلم الآلي الكبيرة المدربة مسبقًا (ML) لمهام محددة دون الحاجة إلى إعادة تدريب النموذج بأكمله. تم تفصيلها في الأصل في ورقة بحثية من قبل باحثي مايكروسوفت، وقد أصبحت تقنية LoRA حجر الزاوية في الضبط الدقيق الفعال للمعلمات (PEFT). وهو يقلل بشكل كبير من التكلفة الحسابية ومتطلبات التخزين المرتبطة بتخصيص النماذج الضخمة، مثل نماذج اللغة الكبيرة (LLMs ) ونماذج الأساس الأخرى.
بدلاً من تحديث المليارات من أوزان النموذج في نموذج مُدرَّب مسبقاً، تقوم LoRA بتجميدها جميعاً. ثم يقوم بعد ذلك بحقن زوج من المصفوفات الصغيرة القابلة للتدريب - تسمى المحولات منخفضة الرتبة - في طبقات محددة من النموذج، وغالبًا ما يكون ذلك ضمن آلية الانتباه في بنية المحول. أثناء عملية التدريب، يتم تحديث معلمات هذه المصفوفات الجديدة الأصغر بكثير فقط. الفكرة الأساسية هي أن التغييرات اللازمة لتكييف النموذج مع مهمة جديدة يمكن تمثيلها بمعلمات أقل بكثير مما يحتويه النموذج الأصلي. يستفيد هذا من مبادئ مشابهة لتقليل الأبعاد لالتقاط المعلومات الأساسية للتكيف في شكل مضغوط. وبمجرد اكتمال التدريب، يمكن دمج المحول الصغير مع الأوزان الأصلية أو الاحتفاظ به منفصلاً لتبديل المهام المعيارية.
إن كفاءة LoRA تجعلها مثالية لمجموعة واسعة من التطبيقات، خاصةً عند الحاجة إلى نماذج مخصصة متعددة.
من المفيد التمييز بين LoRA وتقنيات تكييف النماذج الأخرى:
وباختصار، توفر LoRA طريقة قوية وفعالة من حيث الموارد لتخصيص نماذج أساسية كبيرة مدربة مسبقًا لمجموعة واسعة من المهام المحددة في كل من معالجة اللغات الطبيعية (NLP) والرؤية الحاسوبية، مما يجعل الذكاء الاصطناعي المتقدم أكثر عملية وسهولة في الوصول إليه. يسمح هذا النهج بإدارة ونشر العديد من النماذج المتخصصة بسهولة، وهي عملية مبسطة من خلال منصات مثل Ultralytics HUB لإدارة دورات حياة النماذج.