Glossar

Promptes Tuning

Optimiere große Sprachmodelle effizient mit Prompt Tuning - reduziere Kosten, spare Ressourcen und erreiche mühelos aufgabenspezifische Anpassungsfähigkeit.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Prompt-Tuning ist eine schlanke und effiziente Technik, um große vortrainierte Modelle, insbesondere Large Language Models (LLMs), an bestimmte nachgelagerte Aufgaben anzupassen, ohne das gesamte Modell zu aktualisieren. Anstatt Milliarden von Parametern zu verändern, konzentriert sich das Prompt Tuning auf das Erlernen einer kleinen Gruppe von aufgabenspezifischen Prompt-Parametern, die oft als "Soft Prompts" bezeichnet werden und der Eingabe vorangestellt werden. Dieser Ansatz reduziert die Rechenkosten und den Speicherbedarf erheblich und macht es möglich, große Modelle wie GPT-3 oder GPT-4 für spezielle Anwendungen mit begrenzten Ressourcen anzupassen.

Konzept und Relevanz

Die Kernidee hinter Prompt Tuning ist es, das umfangreiche Wissen, das in einem vortrainierten Modell eingebettet ist, einzufrieren und sein Verhalten durch gelernte Prompt-Vektoren zu steuern. Diese Soft-Prompts sind kontinuierliche Vektordarstellungen, die durch Backpropagation optimiert werden und das Modell effektiv auf den gewünschten Output für eine bestimmte Aufgabe lenken. Im Gegensatz zum traditionellen Prompt-Engineering, bei dem die Prompts manuell erstellt werden, sind diese Soft-Prompts gelernte Parameter.

Prompt Tuning ist von großer Bedeutung, da es eine Form des Parameter-Efficient Fine-Tuning (PEFT) darstellt und die Anzahl der Parameter, die für jede Aufgabe trainiert und gespeichert werden müssen, drastisch reduziert. Bei einem Modell mit Milliarden von Parametern müssen für das Prompt Tuning vielleicht nur ein paar Tausend oder Millionen optimiert werden, wie in der Studie"The Power of Scale for Parameter-Efficient Prompt Tuning" beschrieben. Diese Effizienz macht es einfacher, mehrere angepasste Versionen eines großen Modells einzusetzen, ohne dass der Speicher- oder Rechenaufwand zu groß wird, wodurch die Nutzung leistungsstarker Basismodelle demokratisiert wird.

Anwendungen von Prompt Tuning

Prompt Tuning findet überall dort Anwendung, wo eine effiziente Anpassung großer Modelle entscheidend ist. Hier sind zwei konkrete Beispiele:

  1. Individuelle Texterstellung: Ein Unternehmen möchte ein allgemeines LLM wie Google T5 verwenden, um Marketingtexte in seiner spezifischen Markenstimme zu erstellen. Anstatt das Modell vollständig zu optimieren, kann es das Prompt-Tuning nutzen. Durch das Trainieren von Soft-Prompts anhand von Beispielen des gewünschten Textstils kann das Unternehmen das eingefrorene LLM so steuern, dass es Ausgaben produziert, die seiner Markenidentität entsprechen, und so eine effiziente aufgabenspezifische Texterstellung erreicht. Plattformen wie Ultralytics HUB erleichtern die Verwaltung solcher angepassten Modelle.
  2. Bereichsspezifische Stimmungsanalyse: Ein Gesundheitsdienstleister muss das Patientenfeedback auf spezifische Stimmungsnuancen in Bezug auf die medizinische Versorgung analysieren. Einem allgemeinen Sentiment-Analysemodell fehlt möglicherweise das domänenspezifische Verständnis. Mithilfe von Prompt-Tuning können sie ein vortrainiertes Sprachmodell anpassen, indem sie Prompts lernen, die für Feedbackdaten aus dem Gesundheitswesen optimiert sind. Dadurch kann das Modell die Stimmung in diesem spezifischen Kontext besser verstehen und klassifizieren, ohne das gesamte Basismodell neu zu trainieren, was die Genauigkeit verbessern kann.

Prompt Tuning vs. Verwandte Konzepte

Es ist wichtig, Prompt Tuning von ähnlichen Techniken zu unterscheiden:

  • Feinabstimmung: Bei der Feinabstimmung werden in der Regel alle oder ein großer Teil der Gewichte des trainierten Modells in einem aufgabenspezifischen Datensatz aktualisiert. Das ist rechenintensiv und erfordert die Speicherung einer vollständigen Kopie der angepassten Gewichte für jede Aufgabe. Beim Prompt-Tuning wird nur ein kleiner Satz von Prompt-Parametern aktualisiert, während die ursprünglichen Modellgewichte eingefroren bleiben, was sehr viel ressourcenschonender ist. In den Tipps zum Modelltraining findest du allgemeine Hinweise für die Feinabstimmung.
  • Prompt Engineering: Beim Prompt-Engineering werden diskrete Text-Prompts manuell entworfen, um einem LLM das gewünschte Verhalten zu entlocken, oft durch Versuch und Irrtum oder Techniken wie Chain-of-Thought-Prompting. Beim Prompt Tuning hingegen werden kontinuierliche Prompt-Einbettungen automatisch durch Optimierung erlernt.
  • Prompt Enrichment: Beim Prompt Enrichment werden manuell Kontext, Anweisungen oder Beispiele zu einem Prompt hinzugefügt, um die Klarheit zu verbessern und die KI zu leiten. Es handelt sich um eine manuelle Verbesserungstechnik, während das Prompt-Tuning ein automatisierter Lernprozess für Prompt-Parameter ist.
  • LoRA (Low-Rank Adaptation): LoRA ist eine weitere PEFT-Methode, bei der trainierbare Low-Rank-Matrizen in die Schichten des Modells injiziert werden, um die Gewichte indirekt, aber umfassender als beim Prompt-Tuning anzupassen, bei dem in der Regel nur die Eingabeschicht oder die Aufmerksamkeitsmechanismen über Soft Prompts verändert werden. Beides ist effizienter als eine vollständige Feinabstimmung. Mehr über PEFT-Methoden erfährst du zum Beispiel in der Dokumentation derHugging Face PEFT-Bibliothek.

Zusammenfassend lässt sich sagen, dass Prompt Tuning eine leistungsstarke und effiziente Methode zur Spezialisierung großer vortrainierter Modelle wie Ultralytics YOLO (wenn sie in relevanten multimodalen Kontexten angewendet werden) oder LLMs für verschiedene Aufgaben zu spezialisieren und dabei einen Ausgleich zwischen Leistung und rechnerischer Machbarkeit zu schaffen. Dies ist ein wichtiger Fortschritt, um leistungsstarke KI-Modelle anpassungsfähiger und zugänglicher zu machen.

Alles lesen