Glossar

Halluzination (bei LLMs)

Erforsche, wie du mit Halluzinationen in LLMs wie GPT-3 umgehst und die Genauigkeit der KI mit effektiven Techniken und ethischer Aufsicht verbesserst.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Große Sprachmodelle (Large Language Models, LLMs) verfügen über bemerkenswerte Fähigkeiten, menschenähnliche Texte zu generieren, aber manchmal produzieren sie Ausgaben, die sachlich falsch oder unsinnig sind, sogenannte "Halluzinationen". Halluzinationen in LLMs beziehen sich auf Situationen, in denen das Modell Inhalte erzeugt, die nicht den realen Daten oder gültigen Informationen entsprechen. Das Verständnis und der Umgang mit Halluzinationen sind entscheidend für den effektiven Einsatz von KI.

Halluzinationen verstehen

Ursachen von Halluzinationen

  1. Beschränkungen der Trainingsdaten: LLMs werden auf umfangreichen Datensätzen trainiert, aber diese Datensätze können Fehler oder Verzerrungen enthalten, die zu Halluzinationen führen. Außerdem kann das Fehlen aktueller oder vollständiger Informationen die Ungenauigkeiten noch verstärken.
  2. Probabilistische Natur: LLMs erstellen Texte auf der Grundlage von Wahrscheinlichkeiten. Dieser von Natur aus unsichere Prozess kann manchmal zu fantasievollen, aber falschen Ergebnissen führen, die dem "Erfinden" von Dingen ähneln.

  3. Komplexe Fragen: Bei komplexen oder zweideutigen Fragen können LLMs interpolieren oder plausible, aber falsche Informationen erstellen, um Lücken zu füllen.

Abgrenzung zu ähnlichen Konzepten

Während es sich bei Halluzinationen um falsche generative Ergebnisse handelt, unterscheiden sie sich von Vorurteilen in der KI, die sich auf systematische Fehler aufgrund von voreingenommenen Datensätzen beziehen. Mehr darüber, wie sich Vorurteile auf KI-Systeme auswirken, erfährst du unter Vorurteile in der KI.

Relevanz und Anwendungen

Trotz ihrer Herausforderungen bieten LLMs wie GPT-3, die im GPT-3-Glossar erforscht werden, fortschrittliche Fähigkeiten für verschiedene Anwendungen, darunter Chatbots, die Erstellung von Inhalten und mehr, bei denen das Kontextverständnis im Allgemeinen gelegentliche Halluzinationen ausgleicht. Entdecke Chatbot-Anwendungen für reale Einsätze.

Halluzinationen vermindern

Techniken zur Entschärfung

  1. Retrieval-Augmented Generation (RAG): Durch die Nutzung externer Daten verfeinern die Modelle die Antworten und reduzieren so Halluzinationen. Tauche tiefer in die RAG-Techniken ein.

  2. Feinabstimmung: Die Anpassung von Modellen an bestimmte Datensätze erhöht die Genauigkeit. Erfahre mehr unter Feinabstimmungsmethoden.

  3. Menschliche Kontrolle: Die Einbeziehung des Menschen in den Regelkreis stellt sicher, dass die Ergebnisse der KI überprüft werden - ein wichtiger Schritt in Bereichen wie dem Gesundheitswesen, wie in KI im Gesundheitswesen beschrieben.

Beispiele aus der Praxis

  1. Kundenbetreuung: KI-Chatbots, wie die von Microsoft Copilot verwendeten, geben manchmal ungenaue Informationen und müssen daher ständig geschult und verbessert werden.

  2. Inhaltsgenerierung: KI-generierte Nachrichtenberichte könnten nicht vorhandene Fakten enthalten, da LLMs versuchen, Erzählungen ohne ausreichenden Kontext oder Datengenauigkeit zu konstruieren.

Ethische Implikationen

Halluzinationen werfen ethische Fragen auf, insbesondere bei Anwendungen, bei denen Fehlinformationen erhebliche Auswirkungen haben können. Die Sicherstellung von KI-Ethik und Rechenschaftspflicht ist unabdingbar, ein Thema, das unter KI-Ethik näher untersucht wird.

Zukünftige Richtungen

Mit der Weiterentwicklung der KI werden die Bemühungen, die Genauigkeit und Zuverlässigkeit von LLMs zu verfeinern, die Anwendungen in allen Branchen verbessern und gleichzeitig Halluzinationen minimieren. Die Integration fortschrittlicher externer Validierungsmethoden und robusterer Trainingsdatensätze wird wahrscheinlich die nächste Generation von LLMs definieren.

Weitere Fortschritte und Einblicke in LLM-Anwendungen und Halluzinationen findest du im Ultralytics Blog und in der Ultralytics App, die dir direkte KI-Tools zur Verfügung stellt.

Alles lesen