مسرد المصطلحات

الهلوسة (في LLMs)

اكتشف أسباب الهلوسة في النماذج اللغوية الكبيرة (LLMs) واستكشف الاستراتيجيات الفعالة للتخفيف من عدم الدقة في المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.

في سياق النماذج اللغوية الكبيرة (LLMs)، تشير الهلوسة إلى ظاهرة يقوم فيها النموذج بتوليد نص يبدو واثقًا ومعقولاً ولكنه غير صحيح من الناحية الواقعية أو غير منطقي أو لا يستند إلى بيانات المصدر المقدمة. يمكن لهذه النماذج، المصممة لتوليد نصوص متقدمة، أن تخترع أحيانًا حقائق أو مصادر أو تفاصيل، وتقدمها كما لو كانت حقيقية. يحدث هذا لأن الهدف الأساسي لنموذج توليد النصوص المتقدمة هو التنبؤ بالكلمة التالية في تسلسل ما لتكوين جمل متماسكة، وليس التحقق من صحة المعلومات التي يولدها. يعد فهم الهلوسة والتخفيف من حدتها تحديًا رئيسيًا في جعل الذكاء الاصطناعي التوليدي أكثر موثوقية.

لماذا يهلوس أصحاب الليسانس؟

لا تعتبر الهلوسة خداعًا متعمدًا بل هي نتيجة ثانوية لكيفية بناء وتدريب أفراد LLM. وتشمل الأسباب الرئيسية ما يلي:

  • عيوب بيانات التدريب: تتعلم نماذج مثل GPT-3 و GPT-4 من كميات هائلة من النصوص من الإنترنت، والتي تحتوي حتمًا على أخطاء ومعلومات قديمة وتحيز خوارزمي. يتعلم النموذج هذه الأنماط من بيانات التدريب دون فهم متأصل للحقيقة.
  • التصميم المعماري: تم تحسين بنية المحول الأساسية لمطابقة الأنماط ونمذجة اللغة، وليس لاستدعاء الحقائق أو التفكير المنطقي. يمكن أن يؤدي ذلك إلى ما يسميه بعض الباحثين"الببغاء العشوائي"، وهو كيان يمكنه محاكاة اللغة دون فهم معناها.
  • غموض وقت الاستدلال: أثناء التوليد، إذا كان النموذج غير متأكد من أفضل رمز تالٍ، فقد "يملأ الثغرات" بمعلومات معقولة ولكن ملفقة. يمكن أن يقلل ضبط معلمات الاستدلال مثل درجة الحرارة في بعض الأحيان من ذلك، لكنه يظل تحديًا أساسيًا. للحصول على نظرة عامة تقنية، انظر هذا الاستطلاع حول هلوسة LLM من arXiv.

أمثلة من العالم الحقيقي للهلوسة

  • البحث القانوني: طلب أحد المحامين الذين يستخدمون مساعد الذكاء الاصطناعي للبحث في القضايا من مساعد الذكاء الاصطناعي العثور على سوابق قانونية. وقد استشهد روبوت الدردشة الآلي بالعديد من القضايا القضائية المفبركة بالكامل، بما في ذلك أسماء القضايا والتحليلات القانونية، والتي كانت معقولة ولكنها غير موجودة. سلّطت هذه الحادثة الواقعية الضوء على المخاطر الجسيمة لاستخدام مساعدين قانونيين في مجالات عالية المخاطر دون تدقيق قوي للحقائق.
  • توصيات المنتج: يسأل أحد المستخدمين روبوت الدردشة الآلي عن "أفضل حقيبة ظهر للمشي لمسافات طويلة مزودة بلوحة شمسية مدمجة". قد يوصي روبوت الدردشة الآلي بثقة بنموذج محدد، واصفًا ميزاته بالتفصيل، حتى لو لم يكن هذا المنتج أو مجموعة الميزات المحددة غير موجودة. يجمع النموذج بين مفاهيم من بيانات التدريب الخاصة به لإنشاء منتج معقول ولكن خيالي.

كيفية الحد من الهلوسة

يعمل الباحثون والمطورون بنشاط على العديد من استراتيجيات التخفيف من حدة المشكلة:

الهلوسة مقابل أخطاء الذكاء الاصطناعي الأخرى

  • التحيز في الذكاء الاصطناعي: يشير التحيز في الذكاء الاصطناعي إلى الأخطاء المنهجية حيث تحابي مخرجات النموذج مجموعات معينة بشكل غير عادل، وعادةً ما يعكس التحيزات المجتمعية أو تحيزات مجموعة البيانات. أما الهلوسة فتتعلق بعدم صحة الوقائع، وليس بالضرورة التحيز. كلاهما من المخاوف الخطيرة في أخلاقيات الذكاء الاصطناعي.
  • أخطاء الرؤية الحاسوبية: يرتبط مفهوم الهلوسة في المقام الأول بمعالجة اللغة الطبيعية (NLP). في الرؤية الحاسوبية، يعني الخطأ عادةً أن نموذجًا مثل Ultralytics YOLO يرتكب خطأً في اكتشاف الكائن (على سبيل المثال، الخطأ في تصنيف قطة على أنها كلب) أو يفشل في اكتشاف كائن ما، وهو ما يتعلق بدقته. هذا خطأ في الإدراك وليس اختراعاً للمعلومات. ومع ذلك، نظرًا لأن النماذج متعددة الوسائط التي تدمج الرؤية واللغة أصبحت أكثر شيوعًا، فإنها يمكن أن "تهلوس" أيضًا بأوصاف غير صحيحة للصور. يمكن تبسيط إدارة كلا النوعين من النماذج على منصات مثل Ultralytics HUB.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون ونمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة