شيك أخضر
تم نسخ الرابط إلى الحافظة

نشر تطبيقات الرؤية الحاسوبية على أجهزة الذكاء الاصطناعي المتطورة

استكشف كيف تعمل ابتكارات Edge AI وابتكارات NVIDIA مثل Jetson Triton TensorRT على تبسيط نشر تطبيقات الرؤية الحاسوبية.

بفضل التطورات الحديثة في مجال الرؤية الحاسوبية والذكاء الاصطناعي (AI)، فإن ما كان في السابق مجرد مجال بحثي أصبح الآن يقود تطبيقات مؤثرة في مجموعة من الصناعات. من السيارات ذاتية القيادة إلى التصوير الطبي والأمن، تعمل أنظمة الرؤية الحاسوبية على حل مشاكل حقيقية على نطاق واسع. 

تتضمن العديد من هذه التطبيقات تحليل الصور والفيديو في الوقت الفعلي، والاعتماد على الحوسبة السحابية ليس عملياً دائماً بسبب زمن الوصول والتكاليف والمخاوف المتعلقة بالخصوصية. يُعد الذكاء الاصطناعي المتطوّر حلاً رائعاً في هذه الحالات. من خلال تشغيل نماذج Vision AI مباشرةً على الأجهزة المتطورة، يمكن للشركات معالجة البيانات بشكل أسرع وبأسعار معقولة وبقدر أكبر من الأمان، مما يجعل الذكاء الاصطناعي في الوقت الحقيقي أكثر سهولة.

خلال حدث YOLO Vision 2024 (YV24)، وهو الحدث السنوي الهجين الذي تستضيفه شركة Ultralytics كان أحد الموضوعات الرئيسية هو إضفاء الطابع الديمقراطي على الذكاء الاصطناعي في Vision من خلال جعل النشر أكثر سهولة وفعالية للمستخدم. ناقش غاي داهان، كبير مهندسي الحلول في NVIDIA كيف تساعد حلول NVIDIAللأجهزة والبرامج، بما في ذلك أجهزة الحوسبة المتطورة وخوادم الاستدلال وأطر عمل التحسين وحزم SDK لنشر الذكاء الاصطناعي، المطورين على تحسين الذكاء الاصطناعي على الحافة.

في هذه المقالة، سنستكشف في هذا المقال، النقاط الرئيسية التي استخلصناها من الكلمة الرئيسية التي ألقاها جاي داهان في مؤتمر YV24 وكيف تجعل أحدث ابتكارات NVIDIAنشر Vision AI أسرع وأكثر قابلية للتطوير.

ما هي حافة الذكاء الاصطناعي؟

بدأ غاي داهان حديثه بالتعبير عن حماسه للانضمام إلى YV24 افتراضيًا واهتمامه بحزمة Ultralytics Python ونماذج Ultraalytics YOLO قائلاً: "أنا أستخدم Ultralytics منذ اليوم الذي ظهرت فيه. أنا أحب Ultralytics حقًا - لقد كنت أستخدم YOLOv5 حتى قبل ذلك، وأنا متحمس جدًا لهذه الحزمة."

ثم قدم مفهوم الذكاء الاصطناعي الحافي، موضحاً أنه يتضمن تشغيل حسابات الذكاء الاصطناعي مباشرةً على أجهزة مثل الكاميرات أو الطائرات بدون طيار أو الآلات الصناعية، بدلاً من إرسال البيانات إلى خوادم سحابية بعيدة للمعالجة. 

بدلاً من انتظار تحميل الصور أو مقاطع الفيديو وتحليلها ثم إرسال النتائج، يتيح الذكاء الاصطناعي من Edge إمكانية تحليل البيانات على الفور على الجهاز نفسه. وهذا يجعل أنظمة Vision AI أسرع وأكثر كفاءة وأقل اعتماداً على الاتصال بالإنترنت. الذكاء الاصطناعي الحدي مفيد بشكل خاص لتطبيقات اتخاذ القرار في الوقت الفعلي، مثل السيارات ذاتية القيادة والكاميرات الأمنية والمصانع الذكية. 

الفوائد الرئيسية للذكاء الاصطناعي المتطور

بعد تقديمه للذكاء الاصطناعي Edge، سلّط جاي داهان الضوء على مزاياه الرئيسية، مع التركيز على الكفاءة وتوفير التكاليف وأمن البيانات. وأوضح أن إحدى أكبر المزايا هي زمن الاستجابة المنخفض - نظرًا لأن نماذج الذكاء الاصطناعي تعالج البيانات مباشرةً على الجهاز، فلا حاجة لإرسال المعلومات إلى السحابة وانتظار الرد. 

يساعد الذكاء الاصطناعي المتطور أيضًا في تقليل التكاليف وحماية البيانات الحساسة. قد يكون إرسال كميات كبيرة من البيانات إلى السحابة، خاصةً تدفقات الفيديو، مكلفاً. ومع ذلك، فإن معالجتها محلياً يقلل من تكاليف النطاق الترددي والتخزين. 

ميزة رئيسية أخرى هي خصوصية البيانات لأن المعلومات تبقى على الجهاز بدلاً من نقلها إلى خادم خارجي. هذا الأمر مهم بشكل خاص لتطبيقات الرعاية الصحية والمالية والأمن، حيث يكون الحفاظ على البيانات محلية وآمنة أولوية قصوى.

الشكل 1. غاي داهان يقدم عرضاً عن بُعد في YV24 حول فوائد الذكاء الاصطناعي المتطور.

واستنادًا إلى هذه الفوائد، علّق جاي داهان على تزايد اعتماد الذكاء الاصطناعي Edge. وأشار إلى أنه منذ أن طرحت NVIDIA Jetson في عام 2014، زاد الاستخدام عشرة أضعاف. واليوم، يعمل أكثر من 1.2 مليون مطور مع أجهزة Jetson. 

نظرة عامة على جهاز NVIDIA Jetson: جهاز ذكاء اصطناعي متطور

ثم ركز غاي داهان على أجهزةNVIDIA Jetson، وهي عائلة من أجهزة الحوسبة المتطورة للذكاء الاصطناعي المصممة لتقديم أداء عالٍ مع استهلاك منخفض للطاقة. أجهزة Jetson مثالية لتطبيقات الرؤية الحاسوبية في قطاعات مثل الروبوتات والزراعة والرعاية الصحية والأتمتة الصناعية. "Jetsons هي أجهزة ذكاء اصطناعي متطورة مصممة خصيصاً للذكاء الاصطناعي. بل يمكنني أن أضيف أنها مصممة في الأصل خصيصاً للرؤية الحاسوبية".

تأتي أجهزة Jetson في ثلاثة مستويات، كل منها يناسب احتياجات مختلفة:

  • مستوى المبتدئين: توفر هذه الأجهزة ما بين 20 إلى 40 تريليون عملية في الثانية (TOPS) من أداء الذكاء الاصطناعي باستهلاك طاقة يتراوح بين 10 و15 وات، مما يجعلها خياراً ميسور التكلفة للتطبيقات المتطورة.
  • التيار الرئيسي: يوازن بين الأداء والكفاءة، حيث يوفر من 70 إلى 200 تيرابايت مع استهلاك طاقة يتراوح بين 20 و40 وات، وهو مناسب لأعباء عمل الذكاء الاصطناعي متوسطة المدى.
  • عالية الأداء: توفر ما يصل إلى 275 تيرابايت مع استهلاك طاقة يتراوح بين 60 و75 واط، وهي مصممة لتطبيقات الذكاء الاصطناعي الصعبة مثل الروبوتات والأتمتة.

كما تحدث جاي داهان عن Jetson AGX Thor القادم الذي سيتم إطلاقه هذا العام، وقال إنه سيقدم أداءً أكبر بثمانية أضعاف أداء وحدة معالجة الرسومات ( GPU )، وضعف سعة الذاكرة، وأداءً محسناً لوحدة المعالجة المركزية ( CPU ). وهو مصمم خصيصاً للروبوتات الشبيهة بالبشر وتطبيقات الذكاء الاصطناعي المتطورة Edge.

التحديات المتعلقة بنشر نماذج الرؤية الحاسوبية

ثم انتقل غاي داهان إلى مناقشة الجانب البرمجي للذكاء الاصطناعي المتطور وأوضح أنه حتى مع وجود أجهزة قوية، فإن نشر النماذج بكفاءة قد يكون أمراً صعباً. 

إحدى أكبر العقبات هي التوافق، حيث يعمل مطورو الذكاء الاصطناعي غالباً مع أطر عمل مختلفة للذكاء الاصطناعي مثل PyTorch و TensorFlow. قد يكون التنقل بين هذه الأطر أمراً صعباً، مما يتطلب من المطورين إعادة إنشاء البيئات لضمان تشغيل كل شيء بشكل صحيح.

تُعد قابلية التوسع تحدياً رئيسياً آخر. إذ تتطلب نماذج الذكاء الاصطناعي قوة حوسبة كبيرة، وكما قال داهان: "لم يسبق أن كانت هناك شركة ذكاء اصطناعي تريد حوسبة أقل". إن توسيع تطبيقات الذكاء الاصطناعي عبر أجهزة متعددة يمكن أن يصبح مكلفاً بسرعة، مما يجعل التحسين أمراً ضرورياً.

كما أن خطوط أنابيب الذكاء الاصطناعي معقدة، وغالباً ما تتضمن أنواعاً مختلفة من البيانات، والمعالجة في الوقت الفعلي، وتكامل الأنظمة. يبذل المطورون الكثير من الجهد للتأكد من أن نماذجهم تتفاعل بسلاسة مع الأنظمة البرمجية الحالية. ويُعد التغلب على هذه التحديات جزءاً أساسياً من جعل عمليات نشر الذكاء الاصطناعي أكثر كفاءة وقابلية للتطوير.

الشكل 2. التحديات في نشر النموذج.

تبسيط عملية النشر باستخدام خادم الاستدلال Triton Inference Server من NVIDIA

بعد ذلك، حوّل جاي داهان انتباهه إلى خادم الاستدلالTriton Inference Server من NVIDIA. وأشار إلى أن العديد من الشركات والشركات الناشئة تبدأ في تطوير الذكاء الاصطناعي دون تحسين نماذجها بالكامل. إن إعادة تصميم خط أنابيب الذكاء الاصطناعي بالكامل من الصفر قد يكون معطلاً ويستغرق وقتاً طويلاً، مما يجعل من الصعب التوسع بكفاءة. 

بدلاً من الحاجة إلى إجراء إصلاح شامل للنظام، يسمح Triton للمطورين بتحسين وتحسين تدفقات عمل الذكاء الاصطناعي تدريجياً، ودمج مكونات أكثر كفاءة دون كسر الإعدادات الحالية. بفضل دعمه للعديد من أطر عمل الذكاء الاصطناعي، بما في ذلك TensorFlow PyTorch ONNX TensorRT يتيح Triton النشر السلس عبر البيئات السحابية ومراكز البيانات والأجهزة الطرفية بأقل قدر من التعديلات.

الشكل 3. نظرة عامة على خادم الاستدلال Triton Inference Server من NVIDIA.

فيما يلي بعض المزايا الرئيسية لخادم الاستدلال Triton Inference Server من NVIDIA:

  • التجميع التلقائي: يقوم Triton بتجميع طلبات الذكاء الاصطناعي المتعددة معًا قبل معالجتها، مما يقلل من التأخير (زمن الوصول) ويحسن سرعة الاستدلال (الوقت الذي يستغرقه نموذج الذكاء الاصطناعي لتوليد النتائج).
  • تكامل Kubernetes: Triton هو نظام سحابي أصلي، مما يعني أنه يعمل بسلاسة مع Kubernetes (وهو نظام يساعد على إدارة تطبيقات الذكاء الاصطناعي وتوسيع نطاقها عبر أجهزة كمبيوتر متعددة أو خوادم سحابية).
  • مفتوح المصدر وقابل للتخصيص: يمكن للمطورين تعديل Triton لتناسب احتياجاتهم الخاصة، مما يضمن المرونة لمجموعة واسعة من تطبيقات الذكاء الاصطناعي.

تعظيم أداء الذكاء الاصطناعي باستخدام NVIDIA TensorRT

لنفترض أنك تبحث عن المزيد من التسارع; NVIDIA TensorRT خيارًا مثيرًا للاهتمام لتحسين نماذج الذكاء الاصطناعي الخاصة بك. أوضح جاي داهان أن TensorRT هو مُحسِّن تعلُّم عميق عالي الأداء مصمم لوحدات معالجة الرسومات NVIDIA . يمكن تحويل النماذج من TensorFlow و PyTorch و ONNX و MXNet إلى ملفات عالية الكفاءة GPU باستخدام TensorRT.

ما يجعل TensorRT موثوقاً للغاية هو تحسيناته الخاصة بالأجهزة. لن يعمل النموذج المحسّن لأجهزة Jetson بنفس الكفاءة على وحدات معالجة الرسومات الأخرى لأن TensorRT يضبط الأداء بناءً على الأجهزة المستهدفة. يمكن أن يؤدي نموذج الرؤية الحاسوبية المحسّن إلى زيادة سرعة الاستدلال بما يصل إلى 36 مرة مقارنةً بالنماذج غير المحسّنة.

لفت غاي داهان الانتباه أيضًا إلى دعم Ultralytics لـ TensorRT متحدثًا عن كيفية جعل نشر نماذج الذكاء الاصطناعي أسرع وأكثر كفاءة. يمكن تصدير نماذج Ultralytics YOLO مباشرةً إلى تنسيق TensorRT مما يتيح للمطورين تحسينها لوحدات معالجة الرسومات NVIDIA دون الحاجة إلى إجراء أي تغييرات. 

DeepStream 7.0: مجموعة أدوات تحليلات البث المباشر

وفي ختام المحاضرة، عرض غاي داهان عرض DeepStream 7.0، وهو إطار عمل للذكاء الاصطناعي مصمم لمعالجة بيانات الفيديو والصوت وبيانات المستشعرات في الوقت الفعلي باستخدام وحدات معالجة الرسومات NVIDIA . تم تصميمه لدعم تطبيقات الرؤية الحاسوبية عالية السرعة، وهو يتيح اكتشاف الأجسام وتتبعها وتحليلها عبر الأنظمة المستقلة والأمن والأتمتة الصناعية والمدن الذكية. من خلال تشغيل الذكاء الاصطناعي مباشرةً على الأجهزة المتطورة، يُلغي DeepStream الاعتماد على السحابة، مما يقلل من زمن الاستجابة ويحسن الكفاءة.

الشكل 4. استكشاف DeepStream 7.0 في YV24 مع غي داهان.

على وجه التحديد، يمكن ل DeepStream التعامل مع معالجة الفيديو المدعوم بالذكاء الاصطناعي من البداية إلى النهاية. وهو يدعم تدفقات العمل من البداية إلى النهاية، بدءاً من فك تشفير الفيديو والمعالجة المسبقة إلى الاستدلال بالذكاء الاصطناعي والمعالجة اللاحقة. 

في الآونة الأخيرة، قدمت DeepStream العديد من التحديثات لتحسين نشر الذكاء الاصطناعي، مما يجعله أكثر سهولة وقابلية للتطوير. تعمل الأدوات الجديدة على تبسيط عملية التطوير، وتحسين تتبع الكاميرات المتعددة، وتحسين خطوط أنابيب الذكاء الاصطناعي لتحسين الأداء. 

أصبح لدى المطورين الآن دعم موسع لبيئات Windows، وقدرات دمج محسّنة لدمج المستشعرات لدمج البيانات من مصادر متعددة، والوصول إلى التطبيقات المرجعية المبنية مسبقًا لتسريع عملية النشر. وتجعل هذه التحسينات من DeepStream حلاً أكثر مرونة وفعالية لتطبيقات الذكاء الاصطناعي في الوقت الفعلي، مما يساعد المطورين على توسيع نطاق تحليلات الفيديو الذكية بسهولة.

الوجبات الرئيسية

كما هو موضح في الكلمة الرئيسية التي ألقاها غاي داهان في YV24، يعيد الذكاء الاصطناعي المتطور تعريف تطبيقات الرؤية الحاسوبية. مع التقدم في الأجهزة والبرامج، أصبحت المعالجة في الوقت الحقيقي أسرع وأكثر كفاءة وفعالية من حيث التكلفة.

مع تبني المزيد من الصناعات للذكاء الاصطناعي المتطور، سيكون التصدي لتحديات مثل التجزئة وتعقيدات النشر هو المفتاح لإطلاق إمكاناته الكاملة. سيؤدي تبنّي هذه الابتكارات إلى تطبيقات ذكاء اصطناعي أكثر ذكاءً واستجابةً، مما سيشكل مستقبل الرؤية الحاسوبية.

كن جزءًا من مجتمعنا المتنامي! استكشف مستودع GitHub الخاص بنا لمعرفة المزيد عن الذكاء الاصطناعي، واطلع على خيارات الترخيص لدينا لبدء مشاريعك في مجال الذكاء الاصطناعي في الرؤية. هل لديك فضول حول ابتكارات مثل الذكاء الاصطناعي في الرعاية الصحية والرؤية الحاسوبية في التصنيع؟ تفضل بزيارة صفحات الحلول الخاصة بنا لمعرفة المزيد!

شعار الفيسبوكشعار تويترشعار LinkedInرمز نسخ الرابط

اقرأ المزيد في هذه الفئة

دعونا نبني المستقبل
من الذكاء الاصطناعي معا!

ابدأ رحلتك مع مستقبل التعلم الآلي