Glossar

Schnelles Engineering

Beherrsche die Kunst des Prompt-Engineerings, um KI-Modelle wie LLMs für präzise, qualitativ hochwertige Ergebnisse bei Inhalten, Kundenservice und mehr zu steuern.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Prompt Engineering ist das Entwerfen, Verfeinern und Strukturieren von Eingaben (Prompts) für Modelle der Künstlichen Intelligenz (KI), insbesondere Large Language Models (LLMs) und andere generative KI-Systeme, um die gewünschten oder optimalen Ergebnisse zu erzielen. Dabei geht es weniger darum, das Modell selbst zu verändern, sondern vielmehr darum, mit Hilfe von sorgfältig formulierten natürlichsprachlichen Anweisungen, Fragen oder Beispielen effektiv mit dem Modell zu kommunizieren. Da Modelle wie GPT-4 immer leistungsfähiger werden, hat die Qualität der Eingabeaufforderung einen großen Einfluss auf die Qualität, Relevanz und Nützlichkeit der erzeugten Antwort.

Die Rolle der Prompts

Ein Prompt ist die Anweisung oder Abfrage, die das Verhalten des KI-Modells steuert. Effektives Prompt-Engineering bedeutet zu verstehen, wie ein Modell Sprache interpretiert und iterativ verschiedene Formulierungen, Kontexte und Einschränkungen zu testen. Dieser Prozess erfordert oft Klarheit, Spezifität und die Bereitstellung von ausreichendem Kontext oder Beispielen im Prompt selbst. Die Techniken reichen von einfachen Anweisungen bis hin zu komplexeren Methoden wie der Bereitstellung von Beispielen(Few-Shot Learning) oder der Steuerung des Denkprozesses des Modells(Chain-of-Thought Prompting). Ziel ist es, die Lücke zwischen der menschlichen Intention und den Fähigkeiten des Modells zur Generierung von Ergebnissen zu schließen, die oft in Bereichen wie der natürlichen Sprachverarbeitung (NLP) erforscht werden.

Hauptunterschiede zu anderen Techniken

Prompt Engineering unterscheidet sich grundlegend von anderen Optimierungsverfahren des maschinellen Lernens (ML):

  • Feinabstimmung: Bei der Feinabstimmung wird ein bereits trainiertes Modell auf einem bestimmten Datensatz weiter trainiert, um seine internen Modellgewichte für eine spezielle Aufgabe anzupassen. Beim Prompt-Engineering hingegen wird mit dem bestehenden Modell gearbeitet, ohne es neu zu trainieren, und man konzentriert sich ausschließlich auf die Bearbeitung der Eingaben.
  • Hyperparameter-Tuning: Hier geht es um die Optimierung von Parametern, die den Lernprozess selbst steuern (z. B. Lernrate oder Stapelgröße), während der Modellschulung. Das Prompt-Engineering findet während der Inferenzzeit statt und optimiert die Eingabe für das bereits trainierte Modell. In den Anleitungen zum Hyperparameter-Tuning findest du weitere Details zu diesem Prozess.
  • Feature Engineering: In der Regel wird dies in der traditionellen ML verwendet und beinhaltet die Auswahl, Umwandlung oder Erstellung von Merkmalen aus Rohdaten, um die Modellleistung zu verbessern. Beim Prompt Engineering geht es um die Erstellung von natürlichsprachlichen Eingaben für generative Modelle, nicht um die Bearbeitung von tabellarischen Datenmerkmalen.

Anwendungen in der realen Welt

Eine zeitnahe Entwicklung ist für verschiedene KI-Anwendungen entscheidend:

  1. Erstellung von Inhalten: Marketingfachleute nutzen Prompt-Engineering, um bestimmte Arten von kreativen Texten zu erstellen, z. B. Entwürfe für Blogbeiträge, Anzeigentexte oder Überschriften für soziale Medien, indem sie Tonalität, Stil, Zielgruppe und Schlüsselwörter angeben. Die Aufforderung "Schreibe drei einprägsame Schlagzeilen für eine E-Mail-Marketingkampagne, die sich an Kleinunternehmer/innen richtet und sich mit KI-gestütztem Bestandsmanagement befasst" führt beispielsweise zu gezielteren Ergebnissen als eine allgemeine Aufforderung "Schreibe E-Mail-Schlagzeilen". Damit werden die Fähigkeiten der LLMs zur Texterstellung genutzt.
  2. Chatbots für den Kundensupport: Entwickler entwickeln Prompts, um die Persona eines Chatbots (z. B. freundlich, formell), den Wissensumfang und die spezifischen Arbeitsabläufe für die Bearbeitung von Nutzeranfragen zu definieren. Ein Prompt könnte den Bot anweisen: "Du bist ein hilfreicher Support-Agent für Ultralytics. Beantworte höflich die Fragen der Nutzer zu Ultralytics YOLO Softwarelizenzen. Wenn du nach den Preisen gefragt wirst, verweise sie auf die Preisseite. So wird eine konsistente und hilfreiche Interaktion sichergestellt, die möglicherweise Techniken wie Retrieval-Augmented Generation (RAG) für den Zugriff auf bestimmte Informationen nutzt. Du kannst mehr darüber erfahren, wie LLMs funktionieren, um die zugrunde liegende Technologie zu verstehen.

Bedeutung und Zukunft

Da KI-Modelle in immer komplexere Systeme integriert werden, von der Codegenerierung bis hin zur wissenschaftlichen Forschung, wird die Fähigkeit, sie effektiv durch das Prompt Engineering zu führen, immer wichtiger. Dies erfordert eine Mischung aus sprachlichen Fähigkeiten, Fachwissen und einem Verständnis für die Fähigkeiten und Grenzen des KI-Modells. Frameworks wie LangChain und Ressourcen wie die OpenAI API-Dokumentation bieten Werkzeuge und Best Practices für dieses sich entwickelnde Feld. Zu einer verantwortungsvollen Nutzung gehören auch die Berücksichtigung der KI-Ethik und die Abschwächung potenzieller Voreingenommenheit in der KI durch sorgfältiges Prompt-Design. Die Erforschung von Ultralytics HUB kann Einblicke in die Verwaltung von KI-Modellen und -Projekten geben, bei denen Prompts eine Rolle spielen könnten. Weitere Forschung wird fortgesetzt, um fortschrittlichere Prompting-Strategien zu erforschen, einschließlich der automatischen Optimierung von Prompts und dem Verständnis der Nuancen der Mensch-KI-Interaktion.

Alles lesen