Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

محوّل (Transformer)

استكشف بنية Transformer وآلية الانتباه الذاتي. تعرف على كيفية قيامهما بتشغيل نماذج الذكاء الاصطناعي مثل RT-DETR Ultralytics لتحقيق دقة فائقة.

Transformer هي بنية تعلم عميق تعتمد على آلية تسمى الانتباه الذاتي لمعالجة البيانات المدخلة المتسلسلة، مثل اللغة الطبيعية أو السمات البصرية. تم تقديمها في الأصل من قبل Google في الورقة البحثية الانتباه هو كل ما تحتاجه، أحدث Transformer ثورة في مجال الذكاء الاصطناعي (AI) من خلال التخلص من قيود المعالجة المتسلسلة للشبكات العصبية المتكررة (RNNs) السابقة. بدلاً من ذلك، يحلل Transformers تسلسلات كاملة من البيانات في وقت واحد، مما يسمح بالتوازي الهائل و أوقات تدريب أسرع بكثير على الأجهزة الحديثة مثل GPUs.

كيف تعمل المحولات (Transformers)؟

الابتكار الأساسي في Transformer هو آلية الانتباه الذاتي. وهذا يسمح للنموذج بتقييم أهمية الأجزاء المختلفة من بيانات الإدخال بالنسبة لبعضها البعض. على سبيل المثال، في جملة ما، يمكن للنموذج أن يتعلم أن كلمة "بنك" ترتبط ارتباطًا وثيقًا بـ "المال" أكثر من ارتباطها بـ "النهر" بناءً على السياق المحيط.

تتكون هذه البنية عمومًا من مكونين رئيسيين:

  • المشفّر: يعالج البيانات المدخلة إلى تمثيل رقمي غني أو تضمين.
  • المفكك: يستخدم ناتج المشفر لتوليد النتيجة النهائية، مثل جملة مترجمة أو مربع حدودي متوقع.

في مجال الرؤية الحاسوبية (CV)، تستخدم النماذج عادةً نوعًا مختلفًا يسمى Vision Transformer (ViT). بدلاً من معالجة الرموز النصية، يتم تقسيم الصورة إلى أجزاء ثابتة الحجم (على سبيل المثال، 16x16 بكسل). يتم تسوية هذه الأجزاء ومعالجتها كسلسلة، مما يمكّن النموذج من التقاط "السياق العام" — فهم العلاقات بين الأجزاء البعيدة من الصورة — بشكل أكثر فعالية من الشبكة العصبية التلافيفية (CNN) القياسية.

المحولات مقابل المفاهيم ذات الصلة

من المهم التمييز بين بنية المحول والمصطلحات ذات الصلة:

  • آلية الانتباه: هذا هو المفهوم العام للتركيز على أجزاء معينة من البيانات. Transformer هو بنية محددة مبنية بالكامل حول طبقات الانتباه، في حين أن النماذج الأخرى قد تستخدم الانتباه فقط كإضافة صغيرة.
  • نموذج اللغة الكبير (LLM): تشير مصطلحات مثل "GPT" إلى نماذج محددة تم تدريبها على كميات هائلة من النصوص. تستخدم جميع نماذج LLM الحديثة تقريبًا بنية Transformer كمحرك أساسي لها.

تطبيقات واقعية

أدت تعددية استخدامات المحولات إلى اعتمادها في مختلف الصناعات:

  1. التصوير الطبي: في الذكاء الاصطناعي في الرعاية الصحية، تُستخدم المحولات في مهام معقدة مثل تحليل الصور الطبية. تساعد قدرتها على فهم العلاقات المكانية الشاملة في الكشف عن الحالات الشاذة الدقيقة في التصوير بالرنين المغناطيسي عالي الدقة أو الأشعة المقطعية التي قد تفوتها شبكات CNN التي تركز على الميزات المحلية.
  2. الأنظمة المستقلة: بالنسبة للمركبات المستقلة، من الضروري فهم مسار المشاة والمركبات الأخرى. تتميز المحولات بفهمها للفيديو من خلال تتبع الأجسام عبر الأطر الزمنية، وتوقع الحركات المستقبلية لضمان التنقل الآمن.

اكتشاف الكائنات باستخدام المحولات

بينما كانت شبكات CNN تهيمن تقليديًا على اكتشاف الكائنات، ظهرت نماذج قائمة على Transformer مثل Real-Time Detection Transformer (RT-DETR) كبديل قوي. RT-DETR سرعة شبكات CNN الأساسية ودقة رؤوس فك التشفير Transformer.

ومع ذلك، يمكن أن تكون نماذج Transformer النقية ثقيلة من الناحية الحسابية. بالنسبة للعديد من التطبيقات المتطورة، توفر النماذج الهجينة عالية التحسين مثل YOLO26— التي تدمج آليات الانتباه الفعالة مع المعالجة التلافيفية السريعة — توازنًا فائقًا بين السرعة والدقة. يمكنك إدارة تدريب ونشر هذه النماذج بسهولة عبر Ultralytics التي تبسط سير العمل من تعليق مجموعة البيانات إلى تصدير النموذج.

Python : استخدام RT-DETR

يوضح المثال التالي كيفية إجراء الاستدلال باستخدام نموذج قائم على محول داخل ultralytics حزمة. يقوم هذا الرمز بتحميل RT-DETR مدرب مسبقًا ويكتشف الكائنات في الصورة.

from ultralytics import RTDETR

# Load a pre-trained Real-Time Detection Transformer (RT-DETR) model
model = RTDETR("rtdetr-l.pt")

# Run inference on an image URL
# The model uses self-attention to identify objects with high accuracy
results = model("https://ultralytics.com/images/bus.jpg")

# Display the detection results with bounding boxes
results[0].show()

لمزيد من القراءة حول الأسس الرياضية، توفر PyTorch حول طبقات Transformer تفاصيل تقنية متعمقة، بينما يقدم دليل IBM حول Transformers منظورًا تجاريًا عالي المستوى .

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن