استكشف تحفيز سلسلة الأفكار (CoT) لتحسين التفكير الاصطناعي. تعرف على كيفية تحسين إنشاء الكود لـ Ultralytics من خلال تقسيم المهام إلى خطوات منطقية.
تعد تقنية Chain-of-Thought (CoT) تقنية متقدمة في هندسة المطالبات تتيح لنماذج اللغة الكبيرة (LLMs) حل مهام الاستدلال المعقدة عن طريق تقسيمها إلى خطوات منطقية وسيطة. بدلاً من مطالبة النموذج بتقديم إجابة نهائية فورية، تشجع تقنية CoT النظام على إنشاء "سلسلة من الأفكار" تحاكي طريقة حل المشكلات البشرية. يحسن هذا الاستدلال التدريجي الأداء بشكل كبير في المهام التي تتضمن الحساب والمنطق الرمزي والاستدلال المنطقي، مما يغير طريقة تفاعلنا مع أنظمة الذكاء الاصطناعي (AI).
غالبًا ما تواجه نماذج اللغة القياسية صعوبات في التعامل مع المشكلات متعددة الخطوات لأنها تحاول ربط المدخلات مباشرةً بالمخرجات في خطوة واحدة. وقد يؤدي هذا النهج "الصندوق الأسود" إلى أخطاء، خاصةً عندما يكون القفز المنطقي كبيرًا جدًا. تعالج ميزة Chain-of-Thought prompting هذه المشكلة عن طريق إدراج خطوات الاستدلال بين السؤال المدخل والمخرجات النهائية.
تعمل هذه العملية بشكل عام بطريقتين:
من خلال إنشاء استدلالات وسيطة بشكل صريح، يتمتع النموذج بفرص أكبر لتصحيح نفسه ويوفر الشفافية في كيفية وصوله إلى استنتاج ما. وهذا أمر بالغ الأهمية لتقليل الهلوسة في نماذج اللغة الكبيرة (LLMs)، حيث قد تقدم النماذج حقائق غير صحيحة بثقة.
على الرغم من أن تقنية Chain-of-Thought تم تطويرها في البداية للمنطق النصي، إلا أنها تتمتع بتطبيقات قوية عند دمجها مع مجالات أخرى من الذكاء الاصطناعي، مثل الرؤية الحاسوبية وتوليد الأكواد.
يستخدم المطورون CoT لتوجيه LLMs في كتابة نصوص برمجية معقدة لمهام مثل اكتشاف الكائنات. بدلاً من طلب غامض مثل "اكتب كودًا للعثور على السيارات"، قد تقوم موجهة CoT بتنظيم الطلب: "أولاً، قم باستيراد المكتبات الضرورية . ثانيًا، قم بتحميل النموذج المدرب مسبقًا. ثالثًا، حدد مصدر الصورة. أخيرًا، قم بتشغيل حلقة التنبؤ." يضمن هذا النهج المنظم أن يكون الكود الذي تم إنشاؤه لنماذج مثل YOLO26 صحيحًا من الناحية النحوية ومنطقيًا.
في مجال المركبات ذاتية القيادة، يجب أن تقوم الأنظمة بمعالجة البيانات المرئية واتخاذ قرارات حاسمة تتعلق بالسلامة. يتيح نهج سلسلة التفكير للنظام التعبير عن منطقه: " detect بالقرب من ممر المشاة. المشاة يواجهون الطريق. إشارة المرور خضراء بالنسبة لي، ولكن المشاة قد يخطون إلى الطريق. لذلك، سأبطئ السرعة وأستعد للتوقف." هذا يجعل قرارات الذكاء الاصطناعي قابلة للتفسير وتتوافق مع مبادئ الذكاء الاصطناعي القابل للتفسير (XAI).
على الرغم من أن CoT هي في الأساس تقنية لغة طبيعية، إلا أنه يمكن تنفيذها برمجياً لضمان تفاعلات متسقة مع نماذج الرؤية. يوضح Python التالي Python كيف يمكن للمطور هيكلة موجه لتوجيه LLM (المحاكاة هنا) في إنشاء كود استدلال صالح Ultralytics .
# Example of structuring a Chain-of-Thought prompt for an LLM
# This prompt guides the model to write a valid YOLO26 inference script
cot_prompt = """
Task: Write a Python script to detect objects using YOLO26.
Chain of Thought:
1. Import the YOLO class from the 'ultralytics' library.
2. Load the 'yolo26n.pt' model weights (the latest nano model).
3. Load a sample image using a URL or local path.
4. Run the predict() function and save the results.
Based on these steps, generate the Python code below:
"""
# In a real application, you would send 'cot_prompt' to an LLM API
print(f"Structured Prompt for LLM:\n{cot_prompt}")
من المهم التمييز بين تحفيز سلسلة الأفكار والمصطلحات المماثلة في مجال التعلم الآلي (ML):
مع استمرار تطور نماذج الأساس، أصبح تحفيز سلسلة الأفكار (Chain-of-Thought) ممارسة قياسية مثلى لإطلاق العنان لإمكاناتها الكاملة. تشير الأبحاث التي أجرتها مجموعات مثل Google DeepMind إلى أنه مع زيادة حجم النماذج، تتحسن قدرتها على إجراء الاستدلال CoT بشكل كبير. يمهد هذا التطور الطريق لعوامل أكثر موثوقية واستقلالية قادرة على التعامل مع سير العمل المعقد في صناعات تتراوح من الرعاية الصحية إلى التصنيع الذكي.