大規模言語モデル(LLM)における幻覚の原因を発見し、AIが生成したコンテンツの不正確さを軽減する効果的な戦略を探る。
ラージ・ランゲージ・モデル(LLM)の文脈では、幻覚とは、モデルが自信に満ち、もっともらしく聞こえるテキストを生成するが、事実に反していたり、無意味であったり、提供されたソースデータに根拠がなかったりする現象を指す。高度なテキスト生成のために設計されたこれらのモデルは、時には事実や出典、詳細を捏造し、あたかもそれが真実であるかのように提示することがある。これは、LLMの主な目的が、生成された情報の真実性を検証することではなく、首尾一貫した文章を形成するために、一連の流れの中で次の単語を予測することであるために起こる。幻覚を理解し緩和することは、生成AIをより信頼性の高いものにするための中心的な課題である。
幻覚は意図的な欺瞞ではなく、LLMがどのように作られ、訓練されるかの副産物である。主な原因は以下の通り:
研究者や開発者は、いくつかの緩和策に積極的に取り組んでいる: