Glossar

Promptes Tuning

Optimiere große Sprachmodelle effizient mit Prompt Tuning - reduziere Kosten, spare Ressourcen und erreiche mühelos aufgabenspezifische Anpassungsfähigkeit.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Prompt Tuning ist eine effiziente Technik, mit der große vortrainierte Modelle, insbesondere Large Language Models (LLMs), für bestimmte nachgelagerte Aufgaben angepasst werden können, ohne die Parameter des ursprünglichen Modells zu verändern. Anstatt das gesamte Modell oder auch nur einen großen Teil davon neu zu trainieren, konzentriert sich das Prompt Tuning auf das Lernen kleiner, aufgabenspezifischer "Soft Prompts" - kontinuierliche Vektoreinbettungen -, diedem Eingabetext vorangestellt werden. Dieser Ansatz reduziert die für die Anpassung erforderlichen Rechenressourcen und Daten im Vergleich zur traditionellen Feinabstimmung erheblich.

So funktioniert Prompt Tuning

Beim Prompt-Tuning besteht die Grundidee darin, die meisten Parameter des trainierten Modells beizubehalten. Wenn du das Modell für eine Aufgabe wie Sentimentanalyse oder Texterstellung anpasst, musst du nicht die Milliarden von weights and biases innerhalb des Modells anzupassen, wird nur ein kleiner Satz von Prompt-Parametern (die weichen Prompt-Einbettungen) mittels Gradientenabstieg trainiert. Diese gelernten Einbettungen fungieren als Anweisungen oder Kontext, die das eingefrorene Modell anleiten, die gewünschte Ausgabe für die jeweilige Aufgabe zu produzieren. Das macht es zu einer Form der parameter-effizienten Feinabstimmung (PEFT) und senkt die Hürde für die Spezialisierung massiver Basismodelle drastisch.

Vorteile von Prompt Tuning

Prompt Tuning bietet mehrere Vorteile:

  • Effiziente Berechnung: Benötigt im Vergleich zur vollständigen Feinabstimmung deutlich weniger Rechenleistung und Speicherplatz, da nur ein kleiner Teil der Parameter während des Trainings aktualisiert wird.
  • Geringerer Speicherbedarf: Für jede Aufgabe muss nur der kleine Satz von Prompt Embeddings gespeichert werden, anstatt eine vollständige Kopie des fein abgestimmten Modells.
  • Schnellere Anpassung: Das Training aufgabenspezifischer Prompts geht viel schneller als die Feinabstimmung des gesamten Modells.
  • Abschwächung des katastrophalen Vergessens: Da die ursprünglichen Modellparameter unverändert bleiben, behält das Modell seine allgemeinen Fähigkeiten, die es beim Vortraining erlernt hat, und vermeidet so das Problem, dass die Feinabstimmung bei einer Aufgabe die Leistung bei anderen verschlechtert(katastrophale Interferenz).
  • Vereinfachte Bereitstellung: Mehrere aufgabenspezifische Prompts können mit einem einzigen gemeinsamen Kernmodell verwendet werden, was die Modellbereitstellung und -verwaltung in MLOps-Pipelines vereinfacht.

Anwendungen in der realen Welt

Prompt Tuning ist besonders effektiv, um große Sprachmodelle für spezielle Anwendungen anzupassen:

  1. Kundenspezifische Chatbots für den Kundenservice: Ein Unternehmen kann ein allgemeines, vortrainiertes LLM wie GPT-4 verwenden und mit Prompt Tuning spezielle Prompts für verschiedene Supportbereiche erstellen (z. B. Rechnungsstellung, technischer Support, Produktanfragen). Jeder Prompt leitet das Basismodell dazu an, im jeweiligen Kontext angemessen zu antworten und dabei unternehmensspezifische Sprache und Wissen zu verwenden, ohne dass separate, fein abgestimmte Modelle benötigt werden. Dies ermöglicht eine effiziente Skalierung der Chatbot-Funktionen.
  2. Spezialisierte Inhaltserstellung: Eine Marketing-Agentur könnte Prompt Tuning nutzen, um ein großes Textgenerierungsmodell so anzupassen, dass es Inhalte in einer bestimmten Markenstimme oder einem bestimmten Stil erstellt (z. B. formelle Berichte, lockere Blogposts, einprägsame Werbetexte). Für jeden Stil werden separate Prompts trainiert, so dass das gleiche leistungsstarke Basismodell von Organisationen wie OpenAI oder Google AI für unterschiedliche Kundenbedürfnisse genutzt werden kann.

Prompt Tuning vs. Verwandte Konzepte

Es ist wichtig, Prompt Tuning von ähnlichen Techniken zu unterscheiden:

  • Feinabstimmung: Dabei wird ein großer Teil oder sogar alle Parameter des vorab trainierten Modells auf einem neuen Datensatz aktualisiert. Es ist rechenintensiver, kann aber manchmal eine höhere Leistung erzielen, indem die internen Repräsentationen des Modells tiefgreifend angepasst werden. Tipps zur Modellschulung umfassen oft Aspekte der Feinabstimmung.
  • Schnelles Engineering: Der Schwerpunkt liegt auf der manuellen Erstellung effektiver textbasierter Prompts (Hard Prompts), um einem eingefrorenen, vorab trainierten Modell das gewünschte Verhalten zu entlocken. Dabei werden Anweisungen und Beispiele im Eingabetext selbst formuliert, ohne dass neue Parameter trainiert werden müssen. Techniken wie das Chain-of-Thought Prompting fallen unter diese Kategorie.
  • Anreicherung mit Prompt: Erweitert die Eingabeaufforderung eines Nutzers automatisch um Kontext oder relevante Informationen (z. B. mit Retrieval-Augmented Generation (RAG)) , bevor sie vom KI-Modell verarbeitet wird. Im Gegensatz zum Prompt-Tuning werden dabei weder das Modell noch die Trainingsparameter verändert, sondern die Eingabeabfrage verfeinert.
  • LoRA (Low-Rank Adaptation): Eine weitere PEFT-Technik, die kleine, trainierbare Low-Rank-Matrizen in die bestehenden Schichten (wie den Aufmerksamkeitsmechanismus) des vortrainierten Modells einfügt. Sie aktualisiert verschiedene Teile des Modells im Vergleich zum Prompt Tuning, das sich ausschließlich auf die Einbettung der Eingaben konzentriert. Beide sind häufig in Bibliotheken wie der Hugging Face PEFT-Bibliothek zu finden.

Prompt Tuning wird vor allem auf LLMs in der natürlichen Sprachverarbeitung (NLP) angewandt, aber das Kernprinzip der effizienten Anpassung ist in der gesamten Künstlichen Intelligenz (KI) relevant. In der Computer Vision (CV) ist eine vollständige Feinabstimmung von Modellen wie Ultralytics YOLO auf benutzerdefinierten Datensätzen für Aufgaben wie die Objekterkennung üblich ist, gewinnen PEFT-Methoden zunehmend an Bedeutung, insbesondere für große multimodale Modelle. Plattformen wie Ultralytics HUB rationalisieren das Training und den Einsatz verschiedener KI-Modelle und könnten in Zukunft solche effizienten Techniken einbeziehen.

Zusammenfassend lässt sich sagen, dass Prompt Tuning eine leistungsfähige und effiziente Methode ist, um große vortrainierte Modelle wie LLMs für verschiedene Aufgaben zu spezialisieren und dabei einen Ausgleich zwischen Leistung und rechnerischer Machbarkeit zu schaffen. Es ist ein wichtiger Fortschritt, um leistungsstarke KI-Modelle anpassungsfähiger und zugänglicher zu machen.

Alles lesen