شيك أخضر
تم نسخ الرابط إلى الحافظة

تعزيز تقدير النقاط الرئيسية اليدوية باستخدام Ultralytics YOLO11

استكشف تقدير النقاط الرئيسية لليد المعتمدة على الذكاء الاصطناعي مع دعم Ultralytics YOLO11 لتقدير الوضعية في تطبيقات مثل التعرف على الإيماءات في الوقت الفعلي.

في الآونة الأخيرة، اكتسب مترجمو لغة الإشارة في مباراة السوبر بول الكثير من الاهتمام. عندما تشاهدهم وهم يغنون أغنية فنانك المفضل على شاشة التلفزيون، يمكنك فهمهم إذا كنت تعرف لغة الإشارة لأن دماغك يعالج حركات أيديهم. ولكن ماذا لو كان بإمكان الكمبيوتر أن يفعل الشيء نفسه؟ بفضل حلول تتبع اليدين التي تعتمد على الذكاء الاصطناعي، أصبح من الممكن للآلات تتبع حركات اليدين وتفسيرها بدقة مذهلة.

ويقع في صميم هذه الحلول مجال الرؤية الحاسوبية، وهو مجال فرعي للذكاء الاصطناعي يمكّن الآلات من معالجة المعلومات المرئية وفهمها. من خلال تحليل الصور ومقاطع الفيديو، يساعد الذكاء الاصطناعي البصري على اكتشاف الأشياء وتتبع الحركات والتعرف على الإيماءات المعقدة بدقة ملحوظة.

على سبيل المثال، نماذج الرؤية الحاسوبية مثل Ultralytics YOLO11 على اكتشاف وتحليل النقاط الرئيسية لليد في الوقت الفعلي باستخدام تقدير الوضعية. وبذلك، يمكن استخدام هذه النماذج في تطبيقات مثل التعرف على الإيماءات وترجمة لغة الإشارة وتفاعلات الواقع المعزز/الواقع الافتراضي. 

في هذه المقالة، سنستكشف في هذه المقالة كيفية تمكين YOLO11 من تتبع اليد القائم على الذكاء الاصطناعي، ومجموعات البيانات المستخدمة للتدريب، وكيفية تدريب نموذج مخصص لتقدير وضعية اليد. سنلقي نظرة أيضًا على تطبيقات العالم الحقيقي. لنبدأ!

فهم اكتشاف النقاط الرئيسية اليدوية القائمة على الذكاء الاصطناعي

يمكن استخدام الذكاء الاصطناعي للتعرف على حركات اليد وتتبعها في البيانات المرئية من خلال تحديد النقاط الرئيسية مثل المعصم وأطراف الأصابع ومفاصل الأصابع. يساعد أحد الأساليب، المعروف باسم تقدير الوضع، أجهزة الكمبيوتر على فهم حركة الإنسان من خلال تعيين النقاط الرئيسية وتحليل كيفية تغيرها بمرور الوقت. وهذا يسمح لأنظمة الذكاء الاصطناعي بتفسير وضعية الجسم والإيماءات وأنماط الحركة بدقة عالية.

تجعل نماذج الرؤية الحاسوبية هذا الأمر ممكناً من خلال تحليل الصور أو مقاطع الفيديو لتحديد النقاط الرئيسية على اليد وتتبع حركتها. بمجرد تعيين هذه النقاط، يمكن للذكاء الاصطناعي التعرف على الإيماءات من خلال تحليل العلاقات المكانية بين النقاط الرئيسية وكيفية تغيرها بمرور الوقت. 

على سبيل المثال، إذا انخفضت المسافة بين إصبع الإبهام والسبابة، يمكن للذكاء الاصطناعي تفسير ذلك على أنه حركة قرص. وبالمثل، يساعد تتبع كيفية تحرك نقاط المفاتيح في تسلسلات في تحديد إيماءات اليد المعقدة وحتى التنبؤ بالحركات المستقبلية.

الشكل 1. مثال على التعرف على النقاط الرئيسية في اليد باستخدام الرؤية الحاسوبية.

ومن المثير للاهتمام أن تقدير الوضعية لتتبع اليدين قد فتح إمكانيات مثيرة للاهتمام، بدءاً من التحكم بدون استخدام اليدين في الأجهزة الذكية إلى تحسين دقة الروبوتات والمساعدة في تطبيقات الرعاية الصحية. مع استمرار تطور الذكاء الاصطناعي والرؤية الحاسوبية، من المرجح أن يلعب تتبع اليدين دوراً أكبر في جعل التكنولوجيا أكثر تفاعلية وسهولة في الوصول إليها وبديهية في الحياة اليومية.

استكشاف YOLO11 لتقدير الوضعيات

قبل أن نتعمق في كيفية إنشاء حل لتتبع اليد القائم على الذكاء الاصطناعي، دعنا نلقي نظرة فاحصة على تقدير الوضعية وكيف يدعم YOLO11 مهمة الرؤية الحاسوبية هذه. على عكس اكتشاف الأجسام القياسي، الذي يحدد الأجسام بأكملها، يركز تقدير الوضعية على اكتشاف المعالم الرئيسية - مثل المفاصل أو الأطراف أو الحواف - لتحليل الحركة والوضعية. 

وعلى وجه التحديد، تم تصميم Ultralytics YOLO11 لتقدير الوضعية في الوقت الفعلي. ومن خلال الاستفادة من كل من الطريقتين من أعلى إلى أسفل ومن أسفل إلى أعلى، فإنه يكتشف الأشخاص بكفاءة ويقدّر النقاط الرئيسية في خطوة واحدة، متفوقاً بذلك على النماذج السابقة من حيث السرعة والدقة.

من خارج الصندوق، يأتي YOLO11 مدربًا مسبقًا على مجموعة بيانات COCO-Pose ويمكنه التعرف على النقاط الرئيسية في جسم الإنسان، بما في ذلك الرأس والكتفين والمرفقين والمعصمين والوركين والركبتين والكاحلين. 

الشكل 2. استخدام YOLO11 لتقدير الوضعية البشرية.

بالإضافة إلى تقدير الوضعية البشرية، يمكن تدريب YOLO11 بشكل مخصص لاكتشاف النقاط الرئيسية على مجموعة متنوعة من الأجسام، سواءً كانت متحركة أو غير متحركة. تجعل هذه المرونة من YOLO11 خيارًا رائعًا لمجموعة كبيرة من التطبيقات.

لمحة عامة عن مجموعة بيانات النقاط الرئيسية اليدوية

تتمثل الخطوة الأولى في التدريب المخصص للنموذج في جمع البيانات وتعليقها أو العثور على مجموعة بيانات موجودة تناسب احتياجات المشروع. على سبيل المثال، تُعد مجموعة بيانات Hand Keypoints نقطة بداية جيدة لتدريب نماذج Vision AI لتتبع اليد وتقدير الوضعية. فهي تحتوي على 26,768 صورة مشروحة، مما يلغي الحاجة إلى وضع العلامات يدويًا. 

يمكن استخدامه لتدريب نماذج مثل Ultralytics YOLO11 لتتعلم بسرعة كيفية اكتشاف حركات اليد وتتبعها. تتضمن مجموعة البيانات 21 نقطة أساسية لكل يد، تغطي المعصم والأصابع والمفاصل. كما تم إنشاء التعليقات التوضيحية لمجموعة البيانات باستخدام Google MediaPipe، وهي أداة لتطوير حلول مدعومة بالذكاء الاصطناعي لمعالجة الوسائط في الوقت الفعلي، مما يضمن اكتشاف نقاط المفاتيح بدقة وموثوقية. 

الشكل 3. النقاط الرئيسية الـ 21 المدرجة في مجموعة بيانات النقاط الرئيسية اليدوية.

إن استخدام مجموعة بيانات منظمة كهذه يوفر الوقت ويتيح للمطورين التركيز على تدريب نماذجهم وضبطها بدلاً من جمع البيانات وتمييزها. في الواقع، مجموعة البيانات مقسّمة بالفعل إلى مجموعات فرعية للتدريب (18,776 صورة) والتحقق من الصحة (7,992 صورة)، مما يسهّل تقييم أداء النموذج. 

كيفية تدريب YOLO11 على تقدير وضعية اليدين

يُعدّ تدريب YOLO11 لتقدير وضعية اليد عملية مباشرة، خاصةً مع حزمةUltralytics Python مما يجعل إعداد النموذج وتدريبه أسهل. نظرًا لأن مجموعة بيانات Hand Keypoints مدعومة بالفعل في خط أنابيب التدريب، يمكن استخدامها على الفور دون الحاجة إلى تنسيق إضافي، مما يوفر الوقت والجهد.

إليك كيفية سير عملية التدريب

  • قم بإعداد البيئة: تتمثل الخطوة الأولى في تثبيت حزمة Ultralytics Python .
  • قم بتحميل مجموعة بيانات النقاط الرئيسية اليدوية: يدعم YOLO11 مجموعة البيانات هذه أصلاً، بحيث يمكن تنزيلها وإعدادها تلقائيًا.
  • استخدم نموذجًا مدربًا مسبقًا: يمكنك البدء بنموذج تقدير الوضعية YOLO11 المدرب مسبقًا، مما يساعد على تحسين الدقة وتسريع عملية التدريب.
  • تدريب النموذج: يتعلم النموذج اكتشاف وتتبع النقاط الرئيسية لليد من خلال المرور بدورات تدريبية متعددة.
  • مراقبة الأداء: توفر حزمة Ultralytics أيضًا أدوات مدمجة لتتبع المقاييس الرئيسية مثل الدقة والخسارة، مما يساعد على ضمان تحسن النموذج بمرور الوقت.
  • الحفظ والنشر: بمجرد التدريب، يمكن تصدير النموذج واستخدامه في تطبيقات تتبع اليد في الوقت الفعلي.

تقييم نموذجك المدرب المخصص

بالانتقال إلى خطوات إنشاء نموذج مخصص، ستلاحظ أن مراقبة الأداء أمر ضروري. إلى جانب تتبع التقدم المحرز أثناء التدريب، فإن تقييم النموذج بعد ذلك أمر بالغ الأهمية للتأكد من أنه يكتشف ويتتبع النقاط الرئيسية لليد بدقة. 

تساعد مقاييس الأداء الرئيسية مثل الدقة وقيم الخسارة ومتوسط متوسط الدقة (mAP) في تقييم مدى جودة أداء النموذج. وتوفر حزمة Ultralytics Python أدوات مدمجة لتصور النتائج ومقارنة التنبؤات مع التعليقات التوضيحية الحقيقية، مما يسهل اكتشاف مجالات التحسين.

لفهم أداء النموذج بشكل أفضل، يمكنك التحقق من الرسوم البيانية للتقييم مثل منحنيات الخسارة، ومخططات الدقة والاستدعاء ومصفوفات الارتباك، والتي يتم إنشاؤها تلقائيًا في سجلات التدريب. 

تساعد هذه الرسوم البيانية في تحديد مشكلات مثل الإفراط في التهيئة (عندما يحفظ النموذج بيانات التدريب ولكنه يعاني من صعوبة في التعامل مع البيانات الجديدة) أو عدم التهيئة (عندما يفشل النموذج في تعلم الأنماط بشكل جيد بما يكفي لأداء دقيق) وتوجيه التعديلات لتحسين الدقة. من المهم أيضًا اختبار النموذج على صور أو مقاطع فيديو جديدة لمعرفة مدى نجاحه في سيناريوهات العالم الحقيقي.

تطبيقات حلول التتبع اليدوي المعتمدة على الذكاء الاصطناعي

بعد ذلك، دعنا نتعرف على بعض التطبيقات الأكثر تأثيرًا لتقدير النقاط الرئيسية اليدوية باستخدامYOLO11 Ultralytics YOLO11.

التعرف على الإيماءات في الوقت الحقيقي مع YOLO11

لنفترض أن بإمكانك ضبط مستوى الصوت في تلفازك بمجرد التلويح بيدك أو التنقل في نظام المنزل الذكي بتمريرة بسيطة في الهواء. يجعل التعرف على الإيماءات في الوقت الفعلي المدعوم من YOLO11 هذه التفاعلات الخالية من اللمس ممكنة من خلال اكتشاف حركات اليد بدقة في الوقت الفعلي. 

يعمل ذلك باستخدام كاميرات الذكاء الاصطناعي لتتبع النقاط الرئيسية في يدك وتفسير الإيماءات كأوامر. تقوم كاميرات استشعار العمق أو مستشعرات الأشعة تحت الحمراء أو حتى كاميرات الويب العادية بالتقاط حركات اليد، بينما يستطيع YOLO11 معالجة البيانات للتعرف على الإيماءات المختلفة. على سبيل المثال، يمكن لمثل هذا النظام معرفة الفرق بين التمرير لتغيير الأغنية، أو القرص للتكبير، أو الحركة الدائرية لضبط مستوى الصوت.

اكتشاف نقاط مفاتيح اليد القائمة على الذكاء الاصطناعي للتعرف على لغة الإشارة

يمكن أن تدعم حلول الذكاء الاصطناعي لتتبع اليدين التواصل السلس بين شخص أصم وشخص لا يعرف لغة الإشارة. على سبيل المثال، يمكن استخدام الأجهزة الذكية المدمجة مع الكاميرات و YOLO11 لترجمة لغة الإشارة إلى نص أو كلام على الفور. 

بفضل التطورات مثل YOLO11 أصبحت أدوات ترجمة لغة الإشارة أكثر دقة وسهولة في الوصول إليها. يؤثر ذلك على تطبيقات مثل التكنولوجيا المساعدة وخدمات الترجمة المباشرة والمنصات التعليمية. يمكن أن يساعد الذكاء الاصطناعي في سد فجوات التواصل وتعزيز الشمولية في أماكن العمل والمدارس والأماكن العامة.

الرؤية الحاسوبية لتتبع اليد: تحسين تجارب الواقع المعزز والواقع الافتراضي

هل سبق لك أن لعبت لعبة واقع افتراضي (VR) حيث يمكنك الإمساك بالأشياء دون استخدام وحدة تحكم؟ يجعل تتبع اليدين المدعوم بالرؤية الحاسوبية هذا الأمر ممكناً من خلال السماح للمستخدمين بالتفاعل بشكل طبيعي في بيئات الواقع المعزز (AR) والواقع الافتراضي. 

الشكل 4. يعد تتبع اليد جزءًا أساسيًا من تطبيقات الواقع المعزز والواقع الافتراضي.

من خلال تقدير النقاط الرئيسية لليد باستخدام نماذج مثل Ultralytics YOLO11 يتتبع الذكاء الاصطناعي الحركات في الوقت الفعلي، مما يتيح إيماءات مثل القرص والإمساك والتمرير. وهذا يعزز الألعاب والتدريب الافتراضي والتعاون عن بُعد، مما يجعل التفاعلات أكثر سهولة. مع تحسن تقنية تتبع اليدين، ستشعر الواقع المعزز والواقع الافتراضي بمزيد من الانغماس والواقعية. 

الوجبات الرئيسية

يعمل تقدير النقاط الرئيسية لليد باستخدام Ultralytics YOLO11 على جعل حلول تتبع اليدين القائمة على الذكاء الاصطناعي أكثر سهولة وموثوقية. من التعرّف على الإيماءات في الوقت الفعلي إلى تفسير لغة الإشارة وتطبيقات الواقع المعزز/الواقع الافتراضي، تفتح الرؤية الحاسوبية إمكانيات جديدة في التفاعل بين الإنسان والحاسوب.

كما أن التدريب المخصص المبسط وعمليات الضبط الدقيق تساعد المطورين على بناء نماذج فعالة لمختلف الاستخدامات في العالم الحقيقي. ومع تطور تكنولوجيا الرؤية الحاسوبية، يمكننا أن نتوقع المزيد من الابتكارات في مجالات مثل الرعاية الصحية والروبوتات والألعاب والأمان.

تفاعل مع مجتمعنا واستكشف تطورات الذكاء الاصطناعي على مستودع GitHub الخاص بنا. اكتشف تأثير الذكاء الاصطناعي في التصنيع والرؤية الحاسوبية في مجال الرعاية الصحية من خلال صفحات الحلول الخاصة بنا. استكشف خطط الترخيص لدينا وابدأ رحلتك مع الذكاء الاصطناعي اليوم!

شعار الفيسبوكشعار تويترشعار LinkedInرمز نسخ الرابط

اقرأ المزيد في هذه الفئة

دعونا نبني المستقبل
من الذكاء الاصطناعي معا!

ابدأ رحلتك مع مستقبل التعلم الآلي