Glossaire

Hallucination (dans les LLM)

Découvre ce qui provoque des hallucinations dans les grands modèles de langage (LLM) et explore des stratégies efficaces pour atténuer les inexactitudes dans les contenus générés par l'IA.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

L'hallucination est un phénomène par lequel un modèle de langage étendu (LLM) génère un texte qui n'a pas de sens, qui est factuellement incorrect ou qui n'a aucun rapport avec le contexte d'entrée fourni, bien qu'il paraisse confiant et cohérent. Ces sorties ne sont pas fondées sur les données d'entraînement du modèle ou sur la réalité extérieure, mais sont plutôt des artefacts des processus internes du modèle qui tentent de prédire le prochain mot ou token le plus probable. Il est crucial de comprendre les hallucinations pour développer et déployer de manière responsable des systèmes d'intelligence artificielle (IA), en particulier ceux utilisés pour la recherche d'informations, la création de contenu ou la prise de décision au sein de plateformes telles que les chatbots ou les assistants virtuels.

Pourquoi les hallucinations se produisent-elles ?

Les LLM, souvent construits sur des architectures comme le Transformer (présenté dans l'article"Attention Is All You Need"), sont fondamentalement des modèles probabilistes. Ils apprennent les modèles, la grammaire et les associations factuelles à partir de grandes quantités de données textuelles au cours de la formation en utilisant des cadres tels que PyTorch ou TensorFlow. Cependant, ils ne disposent pas d'une véritable compréhension, d'une conscience ou de la capacité à vérifier les informations de manière intrinsèque. Les hallucinations peuvent provenir de plusieurs facteurs :

  • Limites des données d'entraînement : Le modèle peut avoir été entraîné sur des données bruyantes, biaisées ou incorrectes sur le plan factuel, ou ne pas disposer de suffisamment d'informations sur un sujet spécifique. Il tente alors de "combler les lacunes" en se basant sur des modèles appris, ce qui conduit à des fabrications.
  • Architecture du modèle et formation : La façon dont les modèles comme GPT-4 traitent les informations et génèrent des séquences mot par mot peut les conduire sur des chemins statistiquement plausibles mais factuellement incorrects. La complexité des modèles d'apprentissage profond les rend sujets à des comportements imprévisibles.
  • Stratégie de décodage : Les paramètres utilisés lors de la génération du texte (inférence), tels que la "température", influencent le caractère aléatoire. Des températures plus élevées favorisent la créativité mais augmentent le risque d'hallucination.
  • Manque d'ancrage : Sans mécanismes permettant de relier le texte généré aux connaissances du monde réel ou à des documents sources spécifiques, le modèle peut dériver vers des affirmations non étayées. Les techniques telles que l'ancrage visent à remédier à ce problème.
  • Ambiguïté des messages-guides : Des invites vagues ou mal formulées peuvent amener le modèle à faire des hypothèses ou à générer des résultats moins contraignants, ce qui augmente la probabilité d'inexactitudes. Il est essentiel de concevoir des messages-guides efficaces.

Exemples concrets et impact

Les hallucinations peuvent se manifester de différentes manières, ce qui pose des risques importants tels que la diffusion de fausses informations, la génération de contenus nuisibles ou l'érosion de la confiance des utilisateurs dans les systèmes d'IA.

  1. Fabrication de faits dans les chatbots : Un utilisateur pourrait interroger un chatbot sur une découverte scientifique spécifique, et le chatbot pourrait inventer des détails, attribuer la découverte à la mauvaise personne, ou décrire un événement inexistant avec une grande confiance.
  2. Citations juridiques inventées : Dans un incident largement rapporté, des avocats ont utilisé un outil d'IA pour la recherche juridique qui a généré des citations de cas entièrement fabriquées qui ont été présentées dans des documents judiciaires, ce qui a entraîné des sanctions.

L'impact va au-delà des simples erreurs ; il remet en question la fiabilité des systèmes d'IA, en particulier lorsqu'ils sont intégrés aux moteurs de recherche(comme les aperçus de l'IA de Google), aux assistants virtuels et aux outils de création de contenu. Y remédier est un défi central de l'éthique et de la sécurité de l'IA, qui nécessite des stratégies de validation et de surveillance robustes.

Distinguer les hallucinations des autres erreurs

Il est important de différencier les hallucinations des autres types d'erreurs de l'IA :

  • Biais dans l'IA: Il s'agit d'erreurs systématiques ou de résultats biaisés reflétant les biais présents dans les données d'apprentissage (par exemple, les stéréotypes de genre ou de race). Les hallucinations sont généralement des fabrications plus aléatoires que des sorties cohérentes et biaisées. Il est essentiel de comprendre les biais des ensembles de données.
  • Surajustement: Cela se produit lorsqu'un modèle apprend trop bien les données d'apprentissage, y compris le bruit, et ne parvient pas à se généraliser à de nouvelles données inédites(données de validation). Bien que l'ajustement excessif entraîne de mauvaises performances, il est différent de la génération d'informations entièrement nouvelles et fausses.
  • Informations obsolètes : Un LLM peut fournir des informations incorrectes simplement parce que ses données de formation ne sont pas à jour. Il s'agit d'une erreur factuelle basée sur le seuil de connaissance, et non d'une hallucination où l'information est inventée.

Stratégies d'atténuation

Les chercheurs et les développeurs travaillent activement à la réduction des hallucinations LLM :

  • Des données de formation améliorées : Conserver des ensembles de données de meilleure qualité, diversifiés et vérifiés. L'utilisation d'ensembles de données de référence de haute qualité est utile.
  • Génération améliorée par la recherche (RAG): Doter les LLM de la capacité de rechercher et de citer des informations dans des bases de connaissances externes et fiables(comme les bases de données vectorielles) avant de générer une réponse.
  • Mise au point et RLHF : affiner les modèles de base sur des tâches ou des ensembles de données spécifiques et utiliser des techniques telles que l'apprentissage par renforcement à partir de commentaires humains (RLHF) pour aligner le comportement du modèle sur les résultats souhaités (par exemple, la véracité).
  • Meilleure incitation : Les techniques telles que l 'incitation à la chaîne de pensée encouragent les modèles à "penser étape par étape", ce qui peut réduire les erreurs.
  • Vérification des résultats : Mise en place de mécanismes permettant de recouper les déclarations générées avec des faits connus ou des sources multiples.
  • Ajuster les paramètres d'inférence : Diminuer les paramètres tels que la "température" peut rendre les sorties plus ciblées et moins aléatoires, ce qui réduit le risque d'hallucination.

Alors que les LLM se concentrent sur le langage, les modèles spécialisés dans la vision artificielle (CV), tels que Ultralytics YOLO pour la détection d'objets, fonctionnent différemment et font face à des défis distincts, comme assurer la précision de la détection. Cependant, la tendance vers des modèles multimodaux qui combinent le langage et la vision(comme CLIP) signifie que la compréhension de questions telles que l'hallucination devient pertinente dans tous les domaines. Des plateformes comme Ultralytics HUB prennent en charge la formation et le déploiement de divers modèles d'IA, facilitant ainsi le développement à travers différentes modalités.

Tout lire