Glossar

Schnelles Engineering

Beherrsche die Kunst des Prompt-Engineerings, um KI-Modelle wie LLMs für präzise, qualitativ hochwertige Ergebnisse bei Inhalten, Kundenservice und mehr zu steuern.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Prompt-Engineering ist die Kunst und Wissenschaft, wirksame Eingaben (Prompts) zu entwickeln, um Modelle der Künstlichen Intelligenz (KI), insbesondere Large Language Models (LLMs), zu den gewünschten Ergebnissen zu führen. Dabei geht es darum zu verstehen, wie diese Modelle Anweisungen interpretieren, und iterativ Prompts zu entwerfen, die klar und spezifisch sind und genügend Kontext bieten, um genaue, relevante und nützliche Antworten hervorzurufen. Da KI-Modelle zunehmend in verschiedene Tools und Arbeitsabläufe integriert werden, ist die Beherrschung des Prompt-Engineerings entscheidend für die Maximierung ihres Potenzials und die Gewährleistung einer zuverlässigen Leistung bei Aufgaben, die von der einfachen Beantwortung von Fragen bis zur komplexen kreativen Texterstellung reichen.

So funktioniert Prompt Engineering

Effektives Prompt Engineering ist oft ein iterativer Prozess. Er beginnt mit der Analyse der Aufgabenanforderungen und dem Verständnis der Fähigkeiten und Grenzen des Ziel-KI-Modells. Der Ingenieur entwirft dann einen ersten Prompt, testet ihn, wertet die Ergebnisse aus und verfeinert den Prompt auf der Grundlage der Ergebnisse. Diese Verfeinerung kann das Hinzufügen spezifischerer Anweisungen, das Bereitstellen von Beispielen(Lernen mit wenigen Bildern), das Definieren des gewünschten Ausgabeformats (z. B. JSON), das Festlegen von Einschränkungen oder das Anpassen des Tons umfassen. Schlüsseltechniken stützen sich oft auf Prinzipien der natürlichen Sprachverarbeitung (NLP) und erfordern eine sorgfältige Überlegung, wie sich der Wortlaut auf das Verhalten des Modells auswirkt, das von den Trainingsdaten und der Architektur beeinflusst wird, wie z. B. das Transformer-Modell, das in dem berühmten Artikel "Attention Is All You Need" beschrieben wird.

Wichtige Prompting-Techniken

In der Souffleurtechnik werden üblicherweise mehrere Strategien angewandt:

  • Zero-Shot Prompting: Das Modell wird direkt aufgefordert, eine Aufgabe auszuführen, ohne dass im Prompt selbst Beispiele genannt werden. Dabei wird auf das bereits vorhandene Wissen des Modells aus dem Training zurückgegriffen. Siehe Zero-Shot Learning.
  • Few-Shot Prompting: Einfügen einer kleinen Anzahl von Beispielen (Eingabe-Ausgabe-Paare) direkt in den Prompt, um das Modell auf die gewünschte Aufgabe und das Format zu lenken.
  • Chain-of-Thought (CoT) Prompting: Das Modell wird dazu ermutigt, "Schritt für Schritt" zu denken, indem es aufgefordert wird, seinen Denkprozess aufzuschlüsseln, bevor es die endgültige Antwort gibt, was die Leistung bei komplexen Aufgaben oft verbessert.
  • Role Prompting: Das Modell wird angewiesen, eine bestimmte Persona oder Rolle einzunehmen (z. B. "Handle als Python "), um seinen Antwortstil und Inhalt anzupassen.
  • Festlegen der Ausgabestruktur: Lege das gewünschte Format für die Ausgabe klar fest, z. B. eine nummerierte Liste, eine Tabelle oder einen in einer bestimmten Sprache formatierten Code. Ressourcen wie der OpenAI Prompt Engineering Guide bieten Best Practices.

Anwendungen in der realen Welt

Eine zeitnahe Entwicklung ist die Voraussetzung für den erfolgreichen Einsatz vieler KI-Anwendungen:

  1. Automatisierung des Kundendienstes: Die Entwicklung von Prompts für Chatbots und virtuelle Assistenten, um Kundenanfragen präzise zu bearbeiten, eine bestimmte Markensprache beizubehalten und komplexe Probleme angemessen zu eskalieren. Unternehmen nutzen diese Techniken, um das Kundenerlebnis zu verbessern, wie z. B. bei Plattformen wie Zendesk AI.
  2. Erstellung von Inhalten und Zusammenfassungen: Die Erstellung von Prompts für generative KI-Tools (wie die von Cohere oder Anthropic), um Marketingtexte zu erstellen, E-Mails zu schreiben, lange Dokumente zusammenzufassen(Textzusammenfassung) oder sogar Codeschnipsel mit Tools wie GitHub Copilot zu erzeugen.

Weitere Anwendungen sind der Einsatz von semantischen Suchmaschinen, interaktive Lernprogramme und anspruchsvolle Datenanalysen über natürlichsprachliche Schnittstellen.

Prompt Engineering vs. Verwandte Konzepte

Es ist sinnvoll, Prompt-Engineering von verwandten Begriffen zu unterscheiden:

  • Prompt Enrichment: Konzentriert sich darauf, die ursprüngliche Eingabeaufforderung eines Nutzers automatisch mit zusätzlichem Kontext (z. B. aus einer Wissensdatenbank mit RAG) anzureichern, bevor sie das LLM erreicht. Prompt Engineering ist die manuelle Ausarbeitung der Kernanweisungen.
  • Prompt-Tuning: Eine parametereffiziente Feinabstimmung (PEFT), bei der lernbare Einbettungen (Soft Prompts) zur Modelleingabe hinzugefügt und optimiert werden, anstatt textuelle Prompts zu erstellen.
  • Fine-Tuning: Dabei werden die eigentlichen Modellgewichte durch weiteres Training auf einem bestimmten Datensatz aktualisiert, wobei das Modell selbst und nicht nur die Eingabeaufforderung angepasst wird.

Diese Techniken sind zwar unterschiedlich, können sich aber ergänzen. So kann zum Beispiel ein ausgereiftes Basis-Prompt automatisch mit abgerufenen Daten angereichert werden, bevor es von einem fein abgestimmten Modell verarbeitet wird. Frameworks wie LangChain integrieren oft diese verschiedenen Ansätze.

Relevanz in der Computer Vision

Das Prompt Engineering, das im Bereich Computer Vision (CV) traditionell weniger im Vordergrund steht als im Bereich NLP, gewinnt mit dem Aufkommen von multimodalen Modellen und promptable Vision-Systemen zunehmend an Bedeutung. Modelle wie CLIP, YOLO oder YOLOE können Aufgaben wie Objekterkennung oder Bildsegmentierung auf der Grundlage von Textbeschreibungen durchführen. Die Erstellung effektiver Textaufforderungen (z. B. "Erkenne alle 'roten Autos', aber ignoriere 'Lastwagen'") ist eine Form des Prompt-Engineering, die für die Steuerung dieser Vision Language Models entscheidend ist. Plattformen wie Ultralytics HUB erleichtern die Interaktion mit verschiedenen Modellen, darunter Ultralytics YOLO Modellen wie YOLOv8 und YOLO11bei denen die Definition von Aufgaben über Schnittstellen von den Prinzipien des Sofortengineerings profitieren kann, vor allem wenn die Modelle mehr interaktive Möglichkeiten erhalten.

Alles lesen