Glossaire

Hallucination (dans les LLM)

Découvre ce qui provoque des hallucinations dans les grands modèles de langage (LLM) et explore des stratégies efficaces pour atténuer les inexactitudes dans les contenus générés par l'IA.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

L'hallucination est un phénomène par lequel un modèle de langage étendu (LLM) génère un texte qui n'a pas de sens, qui est factuellement incorrect ou qui n'a aucun rapport avec le contexte d'entrée fourni, bien qu'il paraisse confiant et cohérent. Ces sorties ne sont pas fondées sur les données d'entraînement du modèle ou sur la réalité extérieure, mais sont plutôt des artefacts des processus internes du modèle qui tentent de prédire le prochain mot ou token le plus probable. Il est essentiel de comprendre les hallucinations pour développer et déployer de manière responsable des systèmes d'intelligence artificielle (IA), en particulier ceux utilisés pour la recherche d'informations ou la prise de décision.

Pourquoi les hallucinations se produisent-elles ?

Les LLM, souvent construits sur des architectures comme le Transformer, sont fondamentalement des modèles probabilistes. Ils apprennent des schémas et des relations à partir de grandes quantités de données textuelles au cours de la formation. Cependant, ils n'ont pas de véritable compréhension ou conscience. Les hallucinations peuvent provenir de plusieurs facteurs :

  • Limites des données d'entraînement : Le modèle peut avoir été entraîné sur des données bruyantes, biaisées ou incomplètes, ce qui l'amène à générer des affirmations plausibles mais fausses. La qualité des données d'entraînement a un impact significatif sur la fiabilité des résultats.
  • Architecture du modèle : La nature inhérente à la prédiction de séquences peut conduire les modèles à donner la priorité à la fluidité plutôt qu'à l'exactitude des faits, et parfois à "inventer" des détails pour compléter un modèle.
  • Stratégie de décodage : La méthode utilisée pour sélectionner le prochain jeton pendant la génération (par exemple, recherche avide ou recherche par faisceau) peut influencer la probabilité d'hallucinations.
  • Manque d'ancrage : Les modèles manquent souvent d'un accès direct à des informations vérifiables en temps réel ou d'un mécanisme permettant de fonder leurs déclarations sur des bases de connaissances externes, à moins qu'ils ne soient spécifiquement conçus avec des systèmes tels que Retrieval-Augmented Generation (RAG).
  • Ambiguïté de l'invite : Des invites vagues ou mal construites peuvent conduire le modèle sur des chemins de génération non voulus. Une conception efficace des messages-guides est essentielle.

Exemples concrets et impact

Les hallucinations peuvent se manifester de différentes manières, ce qui pose des risques tels que la diffusion de fausses informations ou l'érosion de la confiance des utilisateurs.

  1. Citations juridiques fictives : Dans un incident largement rapporté, des avocats ont utilisé un chatbot pour des recherches juridiques, qui a généré des citations de cas entièrement fabriquées qui ont été soumises dans un dépôt au tribunal. Cela met en évidence le danger de se fier aux LLM pour obtenir des informations critiques sans vérification.
  2. Biographies inventées : Un LLM à qui l'on demande de fournir la biographie d'une personne peu connue risque d'inventer des détails sur sa vie, son éducation ou ses réalisations, en mélangeant des faits réels avec des déclarations plausibles mais fausses. Cela peut être particulièrement problématique dans des domaines comme le journalisme ou la recherche universitaire.

L'impact va au-delà des simples erreurs ; il remet en question la fiabilité des systèmes d'IA, en particulier lorsqu'ils sont intégrés aux moteurs de recherche, aux assistants virtuels et aux outils de création de contenu. S'attaquer à ce problème est un défi central de l'éthique et de la sécurité de l'IA.

Distinguer les hallucinations

Il est important de différencier les hallucinations des autres types d'erreurs :

  • Biais : les hallucinations se distinguent des biais de l'IA, qui reflètent des biais systématiques appris à partir des données d'entraînement (par exemple, la perpétuation de stéréotypes). Les hallucinations sont souvent des fabrications plus aléatoires et absurdes.
  • Erreurs simples : Un modèle peut commettre une erreur factuelle basée sur des informations périmées dans son ensemble de formation. Une hallucination, en revanche, implique de générer des informations qui n'ont probablement jamais existé dans les données d'entraînement.
  • Ajustement excessif : Alors que le surajustement implique qu'un modèle apprend trop bien les données d'entraînement et ne parvient pas à se généraliser, les hallucinations consistent plutôt à générer un contenu nouveau et incorrect.

Stratégies d'atténuation

Les chercheurs et les ingénieurs développent activement des méthodes pour réduire les hallucinations LLM :

  • Améliorer les données de formation : Constituer des ensembles de données de meilleure qualité, plus diversifiés et plus précis sur le plan factuel.
  • Génération améliorée par récupération (RAG) : Intégrer des sources de connaissances externes pour fonder les réponses sur des faits vérifiables. Vois comment la RAG fonctionne dans la pratique avec des outils comme LangChain.
  • Ajustement fin : Adaptation de modèles pré-entraînés sur des ensembles de données spécifiques de haute qualité à l'aide de techniques telles que le réglage fin ou le réglage fin efficace en fonction des paramètres (PEFT).
  • Ingénierie des messages-guides : Concevoir des invites qui guident le modèle vers des réponses factuelles et contextuelles.
  • Couches de vérification des faits : Mise en place d'étapes de post-traitement pour vérifier les affirmations générées par rapport à des sources fiables.
  • Notation de la confiance : Entraîner les modèles à sortir un niveau de confiance pour leurs déclarations, bien que cela reste un défi. Les techniques liées à l'IA explicable (XAI) peuvent aider à comprendre la certitude des modèles.

Il est essentiel de comprendre et d'atténuer les hallucinations pour construire des systèmes d'IA dignes de confiance qui peuvent être intégrés en toute sécurité dans diverses applications, qu'il s'agisse de simples chatbots ou d'outils complexes utilisés dans les flux de travail d'apprentissage automatique et les tâches de traitement du langage naturel (NLP). La recherche et le développement continus, y compris les plateformes comme Ultralytics HUB qui facilitent la gestion et l'évaluation des modèles, sont essentiels dans cet effort continu.

Tout lire