LLMにおけるAI幻覚の原因とリスクを探る。Ultralytics RAG、RLHF、グラウンディングによる事実誤認の軽減方法を学ぶ。
人工知能(AI)の領域において、幻覚とは大規模言語モデル(LLM)が、自信に満ちて文法的に正しいが、事実誤認や無意味、あるいは入力ソースに忠実でないコンテンツを生成する現象を指す。 クラッシュや目に見える不具合を引き起こす標準的なソフトウェアエラーとは異なり、幻覚を起こすモデルは 説得力のある虚偽情報生成者のように振る舞い、誤った情報を正当な事実と同等の権威をもって提示する。これは 医療、法律、金融といった機微な分野で生成AIを導入する組織にとって重大な課題となる。 これらの分野ではデータの完全性が最優先事項である。
モデルがなぜ幻覚を起こすのかを理解するには、その構築方法を考察することが有益である。大規模言語モデル(LLM)は通常、高度な予測エンジンとして機能するトランスフォーマーアーキテクチャに基づいている。検証済みの事実が構造化されたデータベースから照会されるのではなく、モデルは訓練データから導出された統計的確率に基づいて、シーケンス内の次のトークンを予測する。
この行動を促す要因はいくつかある:
幻覚は様々な形で現れる。無害な創造的な脚色から深刻な事実誤認まで:
幻覚の発生頻度を低減することは、AI安全性の主要な焦点である。 エンジニアや研究者は、モデルを現実に根ざすためにいくつかの手法を採用している:
マルチモーダルAIシステムでは、テキスト生成を視覚データに基づいて行うことが可能である。大規模言語モデル(LLM)に情景の説明を求めると、存在しない物体を幻視する可能性がある。YOLO26のような高精度物体検出器を統合することで、開発者はLLMに実在する物体の事実に基づくリストを提供でき、その出力を検証済みの検出結果に厳密に限定できる。
Python 、 ultralytics 検証済みオブジェクトのリストを抽出するパッケージ。
これにより、言語モデルのプロンプトに対する事実に基づく制約として機能できる。
from ultralytics import YOLO
# Load the YOLO26n model (latest generation, efficient and accurate)
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This factual list prevents the LLM from hallucinating items
print(f"Verified Objects for Prompt Context: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
幻覚を他の一般的なAIの誤りと区別することが重要です:
データ整合性を高めて下流工程でのエラーを防止し、データセットの管理やモデルのトレーニングを目指す方々に、 Ultralytics アノテーションとデータセット管理のための包括的なツールを提供します。 さらに、NIST AIリスク管理フレームワークのガイダンスは、 本番環境におけるこれらのリスクを評価・軽減するための基準を提供します。