تعرّف على ماهية هلوسات LLM وأسبابها ومخاطرها في العالم الحقيقي وكيفية التخفيف من حدتها للحصول على مخرجات دقيقة وموثوقة للذكاء الاصطناعي.
تم تصميم النماذج اللغوية الكبيرة (LLMs) مثل GPT وغيرها لتوليد نص بناءً على أنماط مستفادة من مجموعات بيانات ضخمة. ومع ذلك، قد تنتج هذه النماذج في بعض الأحيان معلومات تبدو واقعية ولكنها ملفقة أو غير دقيقة تمامًا. وتُعرف هذه الظاهرة باسم "الهلوسة" في النماذج ذات المستوى المنخفض. تحدث الهلوسة عندما يولد النموذج محتوى لا يستند إلى البيانات التي تم تدريبه عليها أو ينحرف عن المخرجات المقصودة.
تنشأ الهلوسة بسبب الطبيعة الاحتمالية لنماذج LLMs. تتنبأ هذه النماذج بالكلمة التالية في التسلسل بناءً على الاحتمالية المستمدة من بيانات التدريب الخاصة بها. في بعض الأحيان، يمكن أن تؤدي هذه العملية إلى مخرجات تبدو معقولة ولكنها خاطئة. يمكن أن تتراوح الهلوسات من عدم الدقة الطفيفة إلى حقائق أو أحداث أو استشهادات ملفقة بالكامل.
على سبيل المثال:
تثير الهلوسة القلق بشكل خاص في التطبيقات التي تكون فيها الدقة والموثوقية أمرًا بالغ الأهمية، مثل الرعاية الصحية أو القانون أو البحث العلمي. تعرّف على المزيد حول الآثار الأوسع نطاقاً لأخلاقيات الذكاء الاصطناعي وأهمية ضمان التطوير المسؤول للذكاء الاصطناعي.
يمكن أن تنتج الهلوسة عن عدة عوامل:
قد يقترح روبوت الدردشة الآلي المستخدم في روبوت دردشة الرعاية الصحية علاجًا خاطئًا بناءً على أعراض أو مراجع مهلوسة. على سبيل المثال، يمكن أن يوصي بدواء غير موجود لحالة معينة. وللتخفيف من هذه المشكلة، يقوم المطورون بدمج الذكاء الاصطناعي القابل للتفسير (XAI) لضمان الشفافية وإمكانية التتبع في الاقتراحات التي يولدها الذكاء الاصطناعي.
في توليد المستندات القانونية، قد يقوم المحامي بتلفيق السوابق القضائية أو الاقتباس الخاطئ للقوانين القانونية. وهذا يمثل مشكلة خاصة في التطبيقات التي يعتمد فيها المتخصصون القانونيون على السوابق القضائية الدقيقة. يمكن أن يساعد استخدام الأساليب القائمة على الاسترجاع مثل التوليد المعزز للاسترجاع (RAG) في وضع أسس الاستجابات في المستندات التي تم التحقق منها.
في حين أن الهلوسة تطرح تحديات، إلا أن لها أيضًا تطبيقات إبداعية. ففي مجالات مثل سرد القصص أو توليد المحتوى، يمكن للهلوسة أن تعزز الابتكار من خلال توليد أفكار خيالية أو تخمينية. ومع ذلك، في التطبيقات الحرجة مثل الرعاية الصحية أو المركبات ذاتية القيادة، يمكن أن تؤدي الهلوسة إلى عواقب وخيمة، بما في ذلك المعلومات الخاطئة أو مخاطر السلامة.
تتطلب معالجة الهلوسة تطورات في كل من تدريب النماذج وتقييمها. وتعد تقنيات مثل دمج الذكاء الاصطناعي القابل للتفسير وتطوير نماذج خاصة بالمجال مسارات واعدة. بالإضافة إلى ذلك، تتيح منصات مثل Ultralytics HUB للمطورين تجربة أحدث حلول الذكاء الاصطناعي مع التركيز على ممارسات التقييم والنشر القوية.
من خلال فهم الهلوسة والتخفيف من حدتها، يمكننا إطلاق الإمكانات الكاملة لـ LLMs مع ضمان أن تكون مخرجاتها موثوقة وجديرة بالثقة في تطبيقات العالم الحقيقي.