تعرف على كيفية تحسين نموذج التكمية Ultralytics من أجل الذكاء الاصطناعي المتطور. اكتشف كيفية تقليل الذاكرة وتقليل زمن الاستجابة وتصدير نماذج INT8 من أجل استنتاج أسرع.
تكمية النموذج هي تقنية متطورة لتحسين النموذج تُستخدم لتقليل تكاليف الحوسبة والذاكرة لتشغيل نماذج التعلم العميق. في سير عمل التدريب القياسي، عادةً ما تخزن الشبكات العصبية المعلمات (weights and biases) وخرائط التنشيط باستخدام أرقام عائمة 32 بت (FP32). في حين أن هذه الدقة العالية تضمن حسابات دقيقة أثناء التدريب، إلا أنها غالبًا ما تكون غير ضرورية للاستدلال. يحول التكمية هذه القيم إلى تنسيقات أقل دقة، مثل الأرقام العائمة 16 بت (FP16) أو الأعداد الصحيحة 8 بت (INT8)، مما يؤدي إلى تقليص حجم النموذج بشكل فعال وتسريع سرعة التنفيذ دون المساس بالدقة بشكل كبير.
الدافع الرئيسي للتكمية هو الحاجة إلى نشر ذكاء اصطناعي قوي على أجهزة محدودة الموارد. مع زيادة تعقيد نماذج الرؤية الحاسوبية مثل YOLO26، تزداد متطلباتها الحسابية . تعالج التكمية ثلاثة عوائق حاسمة:
من المهم التمييز بين التكمية وتقنيات التحسين الأخرى، لأنها تعدل النموذج بطرق مختلفة :
يتيح التكمية استخدام الرؤية الحاسوبية والذكاء الاصطناعي في مختلف الصناعات التي تعتبر الكفاءة فيها أمراً بالغ الأهمية.
تسهل Ultralytics عملية التصدير، مما يتيح للمطورين تحويل نماذج مثل YOLO26 المتطورة إلى تنسيقات محددة. كما توفر Ultralytics أدوات لإدارة عمليات النشر هذه بسلاسة.
يوضح المثال التالي كيفية تصدير نموذج إلى TFLite مع تمكين تكمية INT8. تتضمن هذه العملية خطوة معايرة حيث يراقب النموذج بيانات العينة لتحديد النطاق الديناميكي الأمثل للقيم المكمية.
from ultralytics import YOLO
# Load a standard YOLO26 model
model = YOLO("yolo26n.pt")
# Export to TFLite format with INT8 quantization
# The 'int8' argument triggers Post-Training Quantization
# 'data' provides the calibration dataset needed for mapping values
model.export(format="tflite", int8=True, data="coco8.yaml")
غالبًا ما يتم نشر النماذج المحسّنة باستخدام معايير قابلة للتشغيل البيني مثل ONNX أو محركات الاستدلال عالية الأداء مثل OpenVINO، مما يضمن توافقًا واسعًا عبر أنظمة الأجهزة المتنوعة.