Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Prompt Tuning

Entdecken Sie die Prompt-Optimierung, um Foundation-Modelle ohne vollständiges Retraining effizient anzupassen. Erfahren Sie, wie Soft-Prompts die Latenz und den Speicherbedarf für KI-Aufgaben wie YOLO26 reduzieren.

Prompt Tuning ist eine ressourceneffiziente Technik, mit der vorab trainierte Grundlagenmodelle an bestimmte nachgelagerte Aufgaben angepasst werden können, ohne dass der Rechenaufwand für das erneute Trainieren des gesamten Netzwerks anfällt. Im Gegensatz zum herkömmlichen Fine-Tuning, bei dem alle oder die meisten Parameter eines Modells aktualisiert werden, friert das Prompt-Tuning die vorab trainierten Modellgewichte ein und optimiert nur eine kleine Gruppe von lernbaren Vektoren – sogenannte „Soft Prompts“ –, die den Eingabedaten vorangestellt werden. Dieser Ansatz ermöglicht es, dass ein einziges, massives Backbone mehrere spezialisierte Anwendungen gleichzeitig bedienen kann, wodurch der Speicherbedarf und die Kosten für den Wechsel der Inferenzlatenz erheblich reduziert werden.

Die Mechanismen der Prompt-Optimierung

In Standard-Workflows des maschinellen Lernens (ML) werden Eingaben wie Text oder Bilder in numerische Darstellungen umgewandelt, die als Einbettungen bezeichnet werden. Bei der Prompt-Optimierung werden zusätzliche trainierbare Einbettungsvektoren in diese Eingabesequenz eingefügt. Während der Trainingsphase verwendet das System Backpropagation zur Berechnung von Gradienten, aber der Optimierungsalgorithmus aktualisiert nur die Werte der Soft-Prompts, wobei die massive Modellstruktur unberührt bleibt.

Diese Methode ist eine Form des parameter-effizienten Fine-Tuning (PEFT). Durch das Lernen dieser kontinuierlichen Vektoren wird das Modell in Richtung der gewünschten Ausgabe „gesteuert”. Dieses Konzept stammt ursprünglich aus dem Bereich der natürlichen Sprachverarbeitung (Natural Language Processing, NLP), wurde jedoch erfolgreich für Computer-Vision -Aufgaben (Computer Vision, CV) angepasst, die oft als Visual Prompt Tuning (VPT) bezeichnet werden.

Unterscheidung von verwandten Konzepten

Um den Nutzen des Prompt-Tunings zu verstehen, ist es wichtig, es von ähnlichen Begriffen in der KI-Landschaft zu unterscheiden :

  • Prompt Engineering: Hierbei werden manuell lesbare Textanweisungen (Hard Prompts) erstellt, um ein generatives KI-Modell anzuleiten. Es erfordert keine Programmierung oder Schulung. Bei der Prompt-Optimierung hingegen wird automatisiertes überwachtes Lernen eingesetzt, um optimale numerische Einbettungen zu finden, die möglicherweise nicht den Wörtern der natürlichen Sprache entsprechen.
  • Vollständige Feinabstimmung: Bei herkömmlichen Methoden wird das gesamte neuronale Netzwerk aktualisiert, was häufig zu einem „katastrophalen Vergessen” des ursprünglichen Trainings führt. Durch die sofortige Feinabstimmung bleiben die ursprünglichen Fähigkeiten des Modells erhalten, wodurch es einfacher wird, Transferlernen über getrennte Aufgaben hinweg zu nutzen.
  • Few-Shot-Lernen: Dies bezieht sich in der Regel auf die Bereitstellung einiger weniger Beispiele im Kontextfenster eines LLM. Prompt-Tuning unterscheidet sich davon, da es Parameter, die gespeichert und wiederverwendet werden, dauerhaft lernt und nicht nur einen temporären Kontext bereitstellt.

Anwendungsfälle in der Praxis

Prompt-Tuning ermöglicht den skalierbaren Einsatz von KI in ressourcenbeschränkten Umgebungen – eine Kernphilosophie, die auch von der Ultralytics für das Modellmanagement

  1. Mehrsprachiger Kundensupport: Ein globales Unternehmen kann ein zentrales, festes Sprachmodell verwenden. Durch das Training von leichtgewichtigen Soft-Prompts für Spanisch, Japanisch und Deutsch kann das System sofort zwischen den Sprachen wechseln. Dadurch werden die enormen Kosten für das Hosting von drei separaten Modellen im Gigabyte-Bereich vermieden, stattdessen werden Prompt-Dateien im Kilobyte-Bereich verwendet .
  2. KI im Gesundheitswesen: Die medizinische Bildgebung leidet häufig unter Datenknappheit. Forscher können ein universelles Bildverarbeitungs-Backbone (wie einen Vision Transformer) verwenden und es mithilfe von Prompt-Tuning für die Erkennung spezifischer Anomalien wie Netzhauterkrankungen oder Tumoren anpassen. Dadurch bleibt die Privatsphäre der Patientendaten gewahrt und eine schnelle Anpassung an neue medizinische Geräte ist möglich, ohne dass das gesamte Modell neu trainiert werden muss.

Beispiel für die Umsetzung

Das Folgende PyTorch Beispiel veranschaulicht das grundlegende mechanische Konzept: Einfrieren der Hauptschichten eines Modells und Erstellen eines separaten, trainierbaren Parameters (der „Soft Prompt”), der so optimiert ist, dass er die Ausgabe beeinflusst.

import torch
import torch.nn as nn

# 1. Define a dummy backbone (e.g., a pre-trained layer)
backbone = nn.Linear(10, 5)

# 2. Freeze the backbone weights (crucial for prompt tuning)
for param in backbone.parameters():
    param.requires_grad = False

# 3. Create a 'soft prompt' vector that IS trainable
# This represents the learnable embeddings prepended to inputs
soft_prompt = nn.Parameter(torch.randn(1, 10), requires_grad=True)

# 4. Initialize an optimizer that targets ONLY the soft prompt
optimizer = torch.optim.SGD([soft_prompt], lr=0.1)

# Verify that only the prompt is being trained
trainable_params = sum(p.numel() for p in [soft_prompt] if p.requires_grad)
print(f"Optimizing {trainable_params} parameters (Soft Prompt only)")

Relevanz für moderne Edge-KI

Da Modelle immer größer werden, wird die Möglichkeit, sie kostengünstig anzupassen, immer wichtiger. Während Architekturen wie YOLO26 bereits in hohem Maße auf Effizienz optimiert sind, sind die Prinzipien des Einfrierens von Backbones und der effizienten Anpassung von grundlegender Bedeutung für die Zukunft von Edge-KI. Techniken, die dem Prompt-Tuning ähneln, ermöglichen es Geräten mit begrenztem Speicher, verschiedene Aufgaben – von der Objekterkennung bis zur Segmentierung – auszuführen, indem einfach kleine Konfigurationsdateien ausgetauscht werden, anstatt riesige neuronale Netze neu zu laden.

Für Entwickler, die effizient trainieren und bereitstellen möchten, stellt die Verwendung von Tools wie der Ultralytics sicher, dass Modelle für ihre spezifischen Hardwareziele optimiert werden, wobei die Best Practices moderner MLOps genutzt werden.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten