Glossar

Schnelles Engineering

Beherrschen Sie die Kunst des Prompt-Engineering, um KI-Modelle wie LLMs für präzise, qualitativ hochwertige Ergebnisse bei Inhalten, Kundenservice und mehr zu steuern.

Prompt-Engineering ist die Kunst und Wissenschaft, wirksame Eingaben (Prompts) zu entwerfen, um Modelle der Künstlichen Intelligenz (KI), insbesondere Large Language Models (LLMs), zur Erzeugung der gewünschten Ergebnisse zu führen. Dies ist vergleichbar mit der Fähigkeit, mit einer KI zu kommunizieren, indem man genau weiß, was man sagen muss und wie man es sagen muss, um die bestmögliche Antwort zu erhalten. Diese Vorgehensweise ist von entscheidender Bedeutung, da die Leistung, Relevanz und Qualität der Ergebnisse eines KI-Modells in hohem Maße von der Art und Weise abhängen, wie eine Anfrage formuliert wird. Effektives Prompt-Engineering ermöglicht es Nutzern, das volle Potenzial leistungsstarker Basismodelle für eine Vielzahl von Aufgaben zu nutzen.

So funktioniert Prompt Engineering

Der Kern des Prompt-Engineerings besteht darin, eine Eingabe zu strukturieren, die einen klaren und ausreichenden Kontext für das Modell bietet. Während eine einfache Frage zu einer einfachen Antwort führen kann, kann ein gut ausgearbeiteter Prompt den Ton, das Format und die Komplexität steuern. Zu den wichtigsten Komponenten eines fortgeschrittenen Prompts gehören:

  • Anweisung: Eine klare und spezifische Anweisung, die dem Modell sagt, welche Aufgabe es erfüllen soll (z. B. "Fassen Sie den folgenden Artikel in drei Aufzählungspunkten zusammen").
  • Kontext: Bereitstellung relevanter Hintergrundinformationen oder Daten, die das Modell als Grundlage für seine Antwort verwenden sollte.
  • Persona: Zuweisung einer Rolle für die KI, die den Ton und den Stil der Ausgabe beeinflusst (z. B. "Handle wie ein erfahrener Finanzanalyst").
  • Format: Angabe der gewünschten Struktur der Ausgabe, z. B. als Liste, JSON-Objekt oder in einem bestimmten Schreibstil.
  • Beispiele: Das Einbeziehen von Beispielen für das gewünschte Eingabe- und Ausgabeformat, eine Technik, die als "few-shot learning" bekannt ist, hilft, die Reaktion des Modells zu steuern. Eine umfassende Ressource für diese Techniken finden Sie im Prompting Guide.

Anwendungen in der realen Welt

  1. Automatisierung des Kundensupports: Um Markenkonsistenz und Genauigkeit zu gewährleisten, kann ein Unternehmen seinen Support-Chatbot mit Prompt-Engineering anleiten. Eine Eingabeaufforderung könnte die KI anweisen, einen freundlichen und hilfsbereiten Ton anzuschlagen, eine interne Wissensdatenbank zur Beantwortung von Produktfragen zu verwenden und ein klares Protokoll zu definieren, wann eine Konversation an einen menschlichen Agenten eskaliert werden soll. Auf diese Weise wird das Verhalten der KI gesteuert und verhindert, dass sie falsche Informationen gibt oder mit Kunden auf eine Weise interagiert, die nicht der Marke entspricht.

  2. Kreative Inhaltserstellung: Bei Text-zu-Bild-Modellen wie Midjourney oder DALL-E 3 von OpenAI ist die Eingabeaufforderung das wichtigste Werkzeug für die Erstellung. Eine einfache Eingabeaufforderung wie "ein Bild von einem Auto" wird ein allgemeines Ergebnis liefern. Eine detaillierte Eingabeaufforderung wie "Ein roter Oldtimer-Sportwagen aus den 1960er Jahren, der bei Sonnenuntergang eine Küstenstraße hinunterfährt, fotorealistischer Stil, cineastische Beleuchtung, 8K-Auflösung" liefert jedoch spezifische Anweisungen zu Motiv, Einstellung, Stil und Qualität und führt zu einem hochgradig maßgeschneiderten und visuell beeindruckenden Bild.

Relevanz in der Computer Vision

Ursprünglich aus dem Bereich der natürlichen Sprachverarbeitung (NLP) stammend, gewinnt das Prompt-Engineering in der Computer Vision (CV) zunehmend an Bedeutung. Dies wird durch die Entwicklung von multimodalen Modellen vorangetrieben, die sowohl Text als auch Bilder gleichzeitig verarbeiten können. Modelle wie CLIP und Detektoren mit offenem Vokabular wie YOLO-World können Aufgaben wie die Objekterkennung auf der Grundlage beliebiger Textbeschreibungen durchführen. Für diese Modelle ist die Erstellung eines effektiven Textprompts (z. B. "erkenne alle 'Fahrräder', aber ignoriere 'Motorräder'") eine Form des Prompt-Engineering, das für die Steuerung dieser Vision Language Models entscheidend ist. Plattformen wie Ultralytics HUB erleichtern die Interaktion mit verschiedenen Modellen, wobei die Definition von Aufgaben über Schnittstellen von den Grundsätzen des Prompt Engineering profitieren kann.

Prompt Engineering vs. Verwandte Konzepte

Es ist wichtig, Prompt Engineering von anderen Konzepten des maschinellen Lernens zu unterscheiden:

  • Feinabstimmung: Dabei werden die Gewichte eines Modells aktualisiert, indem der Trainingsprozess mit einem neuen Datensatz fortgesetzt wird. Beim Prompt-Engineering hingegen wird das Modell selbst nicht verändert, sondern das Verhalten des bestehenden Modells zum Zeitpunkt der Inferenz gesteuert.
  • Prompt Tuning: Beim Prompt-Tuning handelt es sich um eine parametereffiziente Feinabstimmungsmethode (PEFT), bei der ein kleiner Satz "weicher Prompt" -Einbettungen gelernt wird, die der Eingabe vorangestellt werden. Es automatisiert die Erstellung von Prompts durch Training, während Prompt-Engineering der manuelle Prozess der Erstellung von textbasierten "harten Prompts" ist.
  • Gedankenkette (CoT) Prompting: CoT ist eine spezielle Technik zur Entwicklung von Eingabeaufforderungen, bei der eine Anweisung wie "Schritt für Schritt denken" zur Eingabeaufforderung hinzugefügt wird. Dies ermutigt das Modell, komplexe Probleme in Zwischenschritte zu zerlegen, was oft zu genaueren Ergebnissen führt, wie in der ursprünglichen Google-KI-Forschungsarbeit beschrieben.
  • Prompt Verkettung: Bei dieser Technik wird eine komplexe Aufgabe in mehrere, aufeinanderfolgende Aufforderungen unterteilt, wobei die Ausgabe eines Schritts die Eingabe für den nächsten ist. Prompt-Engineering ist die umfassendere Praxis der effektiven Gestaltung jeder dieser einzelnen Prompts. Frameworks wie LangChain sind darauf ausgelegt, solche Ketten zu orchestrieren.
  • Retrieval-Augmented Generation (RAG): RAG ist ein System, das eine Eingabeaufforderung erweitert, indem es zunächst relevante Daten aus einer externen Wissensdatenbank abruft. Das Prompt-Engineering ist in einem RAG-System von entscheidender Bedeutung, um sowohl die anfängliche Suchanfrage als auch den endgültigen Prompt, der die Frage des Benutzers mit den abgerufenen Informationen kombiniert, korrekt zu formulieren.

Werden Sie Mitglied der Ultralytics-Gemeinschaft

Beteiligen Sie sich an der Zukunft der KI. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert