Glossar

Halluzination (bei LLMs)

Erfahre, was LLM-Halluzinationen sind, welche Ursachen sie haben, welche Risiken sie bergen und wie du sie abmildern kannst, um genaue und zuverlässige KI-Ergebnisse zu erzielen.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Große Sprachmodelle (LLMs) wie GPT und andere wurden entwickelt, um Texte auf der Grundlage von Mustern zu generieren, die aus großen Datensätzen gelernt wurden. Diese Modelle können jedoch manchmal Informationen produzieren, die zwar sachlich erscheinen, aber völlig erfunden oder ungenau sind. Dieses Phänomen wird bei LLMs als "Halluzination" bezeichnet. Halluzinationen treten auf, wenn ein Modell Inhalte erzeugt, die nicht auf den Daten beruhen, auf denen es trainiert wurde, oder die von der beabsichtigten Ausgabe abweichen.

Halluzinationen bei LLMs verstehen

Halluzinationen entstehen durch die probabilistische Natur von LLMs. Diese Modelle sagen das nächste Wort in einer Sequenz auf der Grundlage der aus ihren Trainingsdaten abgeleiteten Wahrscheinlichkeit voraus. Gelegentlich kann dieser Prozess zu Ergebnissen führen, die zwar plausibel klingen, aber falsch sind. Halluzinationen können von kleinen Ungenauigkeiten bis hin zu komplett erfundenen Fakten, Ereignissen oder Zitaten reichen.

Zum Beispiel:

  • Ein LLM kann getrost behaupten, dass eine historische Persönlichkeit in einem bestimmten Jahr geboren wurde, auch wenn das Datum nicht stimmt.
  • Er könnte einen Verweis auf eine nicht existierende wissenschaftliche Arbeit fabrizieren, wenn er nach Zitaten gefragt wird.

Halluzinationen sind besonders bedenklich bei Anwendungen, bei denen es auf Genauigkeit und Zuverlässigkeit ankommt, z. B. im Gesundheitswesen, im Recht oder in der wissenschaftlichen Forschung. Erfahre mehr über die weitreichenden Auswirkungen der KI-Ethik und die Bedeutung einer verantwortungsvollen KI-Entwicklung.

Ursachen für Halluzinationen

Halluzinationen können durch verschiedene Faktoren entstehen:

  1. Beschränkung der Trainingsdaten: Das Modell verfügt möglicherweise nicht über genügend genaue Daten zu einem bestimmten Thema, sodass es auf der Grundlage unvollständiger oder nicht zusammenhängender Informationen "raten" muss.
  2. Übergeneralisierung: LLMs können überangepasst sein oder Muster aus Trainingsdaten auf Kontexte anwenden, in denen sie unangemessen sind.
  3. Mehrdeutigkeit der Aufforderung: Wenn die Eingabeaufforderung unklar oder zu weit gefasst ist, könnte das Modell irrelevante oder erfundene Antworten geben.
  4. Modelldesign: Die zugrundeliegende Architektur von LLMs wie Transformers konzentriert sich auf sprachliche Kohärenz und nicht auf sachliche Genauigkeit. Erfahre mehr über die Transformer-Architektur und ihre Anwendungen.

Beispiele für Halluzinationen in der realen Welt

Beispiel 1: Medizinische Diagnose

Ein LLM, der in einem Chatbot für das Gesundheitswesen eingesetzt wird, könnte fälschlicherweise eine Behandlung vorschlagen, die auf halluzinierten Symptomen oder Hinweisen beruht. Zum Beispiel könnte er ein nicht existierendes Medikament für eine bestimmte Krankheit empfehlen. Um dies zu vermeiden, integrieren die Entwickler/innen Explainable AI (XAI), um Transparenz und Nachvollziehbarkeit der von der KI generierten Vorschläge zu gewährleisten.

Beispiel 2: Rechtsbeistand

Bei der Erstellung juristischer Dokumente könnte ein LLM die Rechtsprechung fälschen oder Gesetze falsch zitieren. Das ist besonders problematisch bei Anwendungen, bei denen Juristen auf genaue Präzedenzfälle angewiesen sind. Retrieval-basierte Methoden wie Retrieval Augmented Generation (RAG) können dabei helfen, Antworten in verifizierten Dokumenten zu finden.

Umgang mit Halluzinationen

Techniken zur Reduzierung von Halluzinationen

  1. Verbesserte Datenkuration: Die Bereitstellung vielfältiger, hochwertiger Trainingsdatensätze verringert die Wahrscheinlichkeit von Halluzinationen. Datensätze, die für Anwendungen des maschinellen Lernens (ML) kuratiert werden, werden beispielsweise häufig einer strengen Validierung unterzogen, um die Genauigkeit zu gewährleisten.
  2. Reinforcement Learning with Human Feedback (RLHF): Bei diesem Ansatz werden die Modelle mithilfe von menschlichem Feedback feinabgestimmt, um die Ergebnisse mit erwünschten und tatsächlichen Reaktionen abzugleichen.
  3. Prompt Engineering: Die Erstellung von präzisen und spezifischen Prompts kann das Modell zu genaueren Ergebnissen führen. Erfahre mehr über Prompt Engineering und seine Rolle bei der Optimierung der LLM-Leistung.
  4. Integration von externem Wissen: Durch die Einbindung externer Wissensdatenbanken oder APIs wird sichergestellt, dass das Modell während der Inferenz auf aktuelle und genaue Informationen zugreifen kann.

Tools und Rahmenwerke

  • OpenAI und andere Organisationen forschen aktiv an Methoden zur Erkennung und Minimierung von Halluzinationen in ihren Modellen. Das GPT-4 von OpenAI enthält zum Beispiel Mechanismen, um faktische Ungenauigkeiten zu reduzieren.

Anwendungen und Risiken

Halluzinationen stellen zwar eine Herausforderung dar, haben aber auch kreative Anwendungen. In Bereichen wie dem Geschichtenerzählen oder der Erstellung von Inhalten kann Halluzination Innovation fördern, indem sie fantasievolle oder spekulative Ideen hervorbringt. Bei kritischen Anwendungen wie im Gesundheitswesen oder bei selbstfahrenden Fahrzeugen kann Halluzination jedoch schwerwiegende Folgen haben, z. B. Fehlinformationen oder Sicherheitsrisiken.

Zukünftige Richtungen

Der Umgang mit Halluzinationen erfordert Fortschritte bei der Modellschulung und -bewertung. Techniken wie die Integration von erklärbarer KI und die Entwicklung domänenspezifischer Modelle sind vielversprechende Wege. Plattformen wie Ultralytics HUB ermöglichen es Entwicklern, mit modernen KI-Lösungen zu experimentieren und sich dabei auf robuste Bewertungs- und Einsatzmethoden zu konzentrieren.

Indem wir Halluzinationen verstehen und abmildern, können wir das volle Potenzial von LLMs erschließen und gleichzeitig sicherstellen, dass ihre Ergebnisse in realen Anwendungen zuverlässig und vertrauenswürdig sind.

Alles lesen