Glossar

Retrieval Augmented Generation (RAG)

Entdecke, wie Retrieval Augmented Generation (RAG) die KI-Modelle durch die Integration von zuverlässigen externen Daten in Echtzeit verbessert, um genaue, aktuelle Antworten zu erhalten.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Retrieval Augmented Generation (RAG) ist ein innovativer Ansatz zur Verbesserung der Fähigkeiten von generativen KI-Modellen, insbesondere von Large Language Models (LLMs). Er behebt eine wesentliche Einschränkung von Standard-LLMs: ihre ausschließliche Abhängigkeit von vorab trainierten Daten, was zu Ergebnissen führen kann, die sachlich ungenau, veraltet oder ohne spezifisches Kontextverständnis sind. RAG überwindet diese Probleme, indem es die Modelle in die Lage versetzt, während des Generierungsprozesses in Echtzeit auf Informationen aus externen Quellen zuzugreifen und diese einzubeziehen.

Was ist Retrieval Augmented Generation (RAG)?

Retrieval Augmented Generation (RAG) ist eine Technik, die das Wissen von LLMs anreichert, indem sie ihnen ermöglicht, Informationen aus externen Wissensdatenbanken abzurufen, bevor sie eine Antwort erzeugen. Im Gegensatz zu Modellen, die sich ausschließlich auf ihre internen, vortrainierten Parameter verlassen, greifen RAG-basierte Modelle dynamisch auf relevante Informationen aus externen Quellen wie Dokumenten, Datenbanken oder dem Internet zu und integrieren diese. Dieser Prozess überbrückt effektiv die Lücke zwischen dem umfangreichen allgemeinen Wissen, das in LLMs enthalten ist, und dem Bedarf an aktuellen, präzisen oder domänenspezifischen Informationen. So wird sichergestellt, dass die generierten Inhalte nicht nur kontextrelevant sind, sondern auch auf aktuellen und zuverlässigen Fakten beruhen.

Wie die RAG funktioniert

Der Retrieval Augmented Generation-Prozess umfasst in der Regel zwei Hauptphasen, die zusammenarbeiten:

  1. Abrufphase: Wenn ein Nutzer eine Anfrage stellt, setzt das RAG-System zunächst einen Suchmechanismus ein, um relevante Informationen aus einer bestimmten Wissensquelle zu finden. Diese Wissensquelle kann eine Vektordatenbank mit Dokumenten, eine Sammlung von Webseiten oder ein beliebiger strukturierter oder unstrukturierter Datenspeicher sein. Techniken wie die semantische Suche und der Ähnlichkeitsabgleich werden häufig eingesetzt, um die relevantesten Dokumente oder Informationsbrocken zu identifizieren und zu finden. Diese Methoden nutzen Einbettungen, um die Bedeutung und den Kontext sowohl der Abfrage als auch der Informationen in der Wissensdatenbank zu verstehen und stellen sicher, dass die Suche nicht nur schlagwortbasiert, sondern konzeptionell ausgerichtet ist.

  2. Phase der Erweiterung und Generierung: Sobald relevante Informationen gefunden wurden, werden sie "erweitert" oder mit der ursprünglichen Benutzeranfrage kombiniert. Diese erweiterte Eingabeaufforderung wird dann in das LLM eingespeist. Das LLM nutzt diesen angereicherten Kontext - sowohl die ursprüngliche Anfrage als auch das abgefragte Wissen -, um eine fundiertere und genauere Antwort zu geben. Dieser Prozess stellt sicher, dass die Ergebnisse des Modells auf externen Fakten und Kontexten beruhen, anstatt sich nur auf die möglicherweise begrenzten oder veralteten Daten vor dem Training zu verlassen. Techniken wie das Prompt-Engineering spielen eine entscheidende Rolle bei der effektiven Einbindung der abgerufenen Informationen in den Generierungsprozess und leiten das LLM dazu an, kohärente und relevante Antworten zu geben.

Anwendungen der RAG

Die RAG erweist sich als vielseitige Technik, die in verschiedenen Bereichen Anwendung findet:

  • Verbesserte Chatbots für den Kundendienst: Im Kundenservice können Chatbots, die von RAG betrieben werden, genauere und hilfreichere Antworten geben, indem sie Informationen aus aktuellen Wissensdatenbanken, FAQs und Produktdokumentationen abrufen. So wird sichergestellt, dass die Nutzer/innen aktuelle und spezifische Antworten erhalten, was die Kundenzufriedenheit erhöht und den Bedarf an menschlichem Eingreifen bei häufigen Fragen verringert. Erfahre mehr über Chatbots und ihre Anwendungen.

  • Unterstützung bei der Erstellung von Inhalten und Recherchen: Für Autoren von Inhalten und Forscher können RAG-Systeme bei der Erstellung von Artikeln, Berichten und Forschungsarbeiten helfen, indem sie Zugang zu großen Informationsbeständen bieten. Indem die RAG den erstellten Text auf die gefundenen Fakten und Daten stützt, hilft sie, die sachliche Richtigkeit zu gewährleisten und das Risiko von Plagiaten zu verringern. Dies ist besonders nützlich in Bereichen, in denen aktuelle Informationen benötigt werden oder in denen man tief in bestimmte Themen eintauchen muss. Erfahre mehr über Techniken zur Texterstellung.

  • Interne Wissensmanagement-Systeme: Unternehmen können RAG nutzen, um interne Wissensmanagementsysteme aufzubauen, die es den Mitarbeitern ermöglichen, schnell auf Informationen aus Unternehmensdokumenten, Wikis und Datenbanken zuzugreifen und diese zusammenzufassen. Dies kann die Effizienz steigern, die Entscheidungsfindung erleichtern und den Einarbeitungsprozess vereinfachen, da das Wissen des Unternehmens leicht zugänglich ist.

RAG vs. Feinabstimmung

Sowohl die RAG als auch die Feinabstimmung zielen darauf ab, LLMs für bestimmte Anwendungsfälle anzupassen, aber sie funktionieren unterschiedlich:

  • Retrieval Augmented Generation (RAG): RAG erweitert den Generierungsprozess, indem zum Zeitpunkt der Abfrage relevante Informationen von außen abgerufen werden. Die Parameter des Modells bleiben dabei unverändert, und für aktuelle und domänenspezifische Informationen wird auf externe Wissensquellen zurückgegriffen. RAG ist vorteilhaft, wenn es um sich häufig ändernde Informationen geht oder wenn das Modell auf eine große Menge an Daten zugreifen muss, die nicht in die Parameter des Modells aufgenommen werden können.

  • Feinabstimmung: Bei der Feinabstimmung hingegen werden die internen Parameter eines bereits trainierten Modells geändert, indem es auf einem neuen, aufgabenspezifischen Datensatz trainiert wird. Die Feinabstimmung ist effektiv, um ein Modell an einen bestimmten Stil, einen bestimmten Bereich oder eine bestimmte Aufgabe anzupassen, aber sie aktualisiert das Kernwissen des Modells und erfordert ein erneutes Training, um neue Informationen einzubeziehen. Erforsche das Konzept der Feinabstimmung und des Transferlernens, um es besser zu verstehen.

RAG bietet eine flexiblere und effizientere Möglichkeit, externes und sich entwickelndes Wissen einzubeziehen, ohne dass das gesamte Modell neu trainiert werden muss, was es zu einer praktischen Wahl für Anwendungen macht, die aktuelle und kontextbezogene Antworten erfordern.

Vorteile der RAG

Die Einführung der RAG bietet mehrere wichtige Vorteile:

  • Verbesserte Genauigkeit und Verlässlichkeit: Da sich die Antworten auf externe, überprüfbare Quellen stützen, reduziert RAG sachliche Fehler und Halluzinationen in LLMs erheblich, was zu vertrauenswürdigeren Ergebnissen führt.
  • Zugang zu aktuellen Informationen: Die RAG kann auf die neuesten Informationen aus Live-Wissensdatenbanken zugreifen und diese einbeziehen, um sicherzustellen, dass die Antworten aktuell und relevant sind - ein entscheidender Vorteil in sich schnell entwickelnden Bereichen.
  • Erhöhte kontextuelle Relevanz: RAG stellt sicher, dass die generierten Inhalte für die Anfrage und den Kontext des Nutzers hoch relevant sind, indem relevante Informationen dynamisch abgerufen und integriert werden.
  • Weniger Halluzinationen: Durch den Abgleich und die Validierung von Informationen mit externen Quellen minimiert RAG die Entstehung von erfundenen oder unsinnigen Inhalten, ein häufiges Problem bei rein generativen Modellen.
  • Kosteneffiziente Wissensaktualisierungen: Die Aktualisierung des Wissens in einem RAG-System ist so einfach wie das Aktualisieren der externen Wissensbasis, was weit weniger ressourcenintensiv ist als das Nachtrainieren oder die Feinabstimmung eines großen Sprachmodells.
Alles lesen