Hallucination (dans les LLM)
Découvrez les causes des hallucinations dans les grands modèles de langage (LLM) et explorez des stratégies efficaces pour atténuer les inexactitudes dans les contenus générés par l'IA.
Dans le contexte des grands modèles de langage (LLM), une hallucination se réfère à un phénomène où le modèle génère un texte qui est confiant et qui semble plausible, mais qui est factuellement incorrect, absurde ou qui n'est pas fondé sur les données sources fournies. Ces modèles, conçus pour la génération de textes avancés, peuvent parfois inventer des faits, des sources ou des détails et les présenter comme s'ils étaient vrais. Cela se produit parce que l'objectif principal d'un LLM est de prédire le mot suivant dans une séquence pour former des phrases cohérentes, et non de vérifier la véracité des informations qu'il génère. Comprendre et atténuer les hallucinations est un défi central pour rendre l'IA générative plus fiable.
Pourquoi les LLM hallucinent-ils ?
Les hallucinations ne sont pas des tromperies intentionnelles, mais des sous-produits de la façon dont les LLM sont construits et formés. Les principales causes sont les suivantes
- Imperfections des données d'apprentissage : Les modèles tels que GPT-3 et GPT-4 apprennent à partir d'immenses volumes de textes provenant d'Internet, qui contiennent inévitablement des erreurs, des informations obsolètes et des biais algorithmiques. Le modèle apprend ces modèles à partir de ses données d'apprentissage sans avoir une compréhension inhérente de la vérité.
- Conception architecturale : L'architecture sous-jacente de Transformer est optimisée pour la recherche de motifs et la modélisation du langage, et non pour le rappel de faits ou le raisonnement logique. Cela peut conduire à ce que certains chercheurs appellent un"perroquet stochastique", une entité capable d'imiter le langage sans en comprendre le sens.
- Ambiguïté de l'inférence temporelle : Pendant la génération, si le modèle n'est pas sûr du meilleur jeton suivant, il peut "combler les lacunes" avec des informations plausibles mais fabriquées. L'ajustement des paramètres d'inférence tels que la température peut parfois réduire ce phénomène, mais il reste un défi majeur. Pour un aperçu technique, voir cette étude sur les hallucinations LLM sur arXiv.
Exemples concrets d'hallucinations
- Recherche juridique : Un avocat utilisant un assistant d'IA pour la recherche d'affaires lui a demandé de trouver des précédents juridiques. Le chatbot a cité plusieurs affaires judiciaires complètement fabriquées, y compris des noms d'affaires et des analyses juridiques, qui étaient plausibles mais inexistantes. Cet incident réel a mis en évidence les risques sérieux liés au déploiement de LLM dans des domaines à fort enjeu sans vérification rigoureuse des faits.
- Recommandations de produits : Un utilisateur demande à un chatbot le "meilleur sac à dos de randonnée avec panneau solaire intégré". Le LLM peut recommander en toute confiance un modèle spécifique, en décrivant ses caractéristiques en détail, même si ce produit particulier ou cette combinaison de caractéristiques n'existe pas. Le modèle combine des concepts issus de ses données d'apprentissage pour créer un produit plausible mais fictif.
Hallucination et autres erreurs de l'IA
- Biais dans l'IA : Les biais dans l'IA se réfèrent à des erreurs systématiques où les résultats d'un modèle favorisent injustement certains groupes, reflétant généralement des préjugés sociétaux ou des ensembles de données. L'hallucination est une erreur factuelle, pas nécessairement un préjugé. Il s'agit dans les deux cas de préoccupations sérieuses en matière d'éthique de l'IA.
- Erreurs de vision par ordinateur : Le concept d'hallucination est principalement associé au traitement du langage naturel (NLP). Dans le domaine de la vision par ordinateur, une erreur signifie généralement qu'un modèle comme Ultralytics YOLO commet une erreur dans la détection d'un objet (par exemple, en classant à tort un chat comme un chien) ou qu'il ne détecte pas un objet, ce qui a une incidence sur sa précision. Il s'agit d'une erreur de perception, et non d'une invention d'information. Cependant, les modèles multimodaux qui fusionnent la vision et le langage devenant plus courants, ils peuvent également "halluciner" des descriptions incorrectes d'images. La gestion de ces deux types de modèles peut être rationalisée sur des plateformes comme Ultralytics HUB.
Comment réduire les hallucinations
Les chercheurs et les développeurs travaillent activement sur plusieurs stratégies d'atténuation :