Glossar

Schnelles Engineering

Beherrsche die Kunst des Prompt-Engineerings, um KI-Modelle wie LLMs für präzise, qualitativ hochwertige Ergebnisse bei Inhalten, Kundenservice und mehr zu steuern.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Prompt-Engineering ist die Kunst, effektive Prompts oder Anweisungen zu entwickeln, die KI-Modelle, insbesondere große Sprachmodelle (LLMs), dazu bringen, die gewünschten und hochwertigen Ergebnisse zu erzeugen. Dabei geht es darum zu verstehen, wie diese Modelle Sprache interpretieren, und dann Prompts zu entwerfen, die spezifische und genaue Antworten hervorrufen. Wirksame Prompts sind entscheidend, um das volle Potenzial der KI in verschiedenen Anwendungen zu erschließen, von der Erstellung von Inhalten bis hin zur Lösung komplexer Probleme.

Was ist Prompt Engineering?

Beim Prompt Engineering geht es um mehr als nur darum, einer KI eine Frage zu stellen; es geht darum, die Eingabe strategisch zu gestalten, um die Ausgabe des Modells zu optimieren. Das ist eine wichtige Fähigkeit, denn ein und dasselbe LLM kann durch subtile Änderungen in der Eingabeaufforderung sehr unterschiedliche Ergebnisse liefern. Ein gut durchdachter Prompt kann die Relevanz, Kohärenz und Genauigkeit der KI-Antwort erheblich verbessern. Dieser Prozess beinhaltet oft Experimente und Iterationen, um die effektivste Formulierung, das beste Format und den besten Kontext für eine bestimmte Aufgabe zu finden. Prompt-Engineering ist vor allem in Bereichen von Bedeutung, in denen generative KI zum Einsatz kommt, z. B. bei der Texterzeugung, der Textzusammenfassung und sogar bei Aufgaben im Bereich des Computersehens, die Modelle zum Verstehen von Textanweisungen verwenden, wie das Segment Anything Model (SAM).

Anwendungen von Prompt Engineering

Prompt Engineering wird in zahlreichen Bereichen eingesetzt, um die Fähigkeiten von KI-Modellen in der realen Welt zu verbessern. Hier sind ein paar Beispiele:

  • Erstellung von Inhalten und Marketing: Bei der Erstellung von Inhalten kann das Prompt-Engineering genutzt werden, um ansprechende Artikel, Blogbeiträge, Marketingtexte und Inhalte für soziale Medien zu erstellen. Ein Beispiel: Statt einer allgemeinen Aufforderung wie "Schreibe eine Produktbeschreibung" könnte die Aufforderung für bessere Ergebnisse angepasst werden: "Schreibe eine überzeugende und prägnante Produktbeschreibung für unsere neuen Kopfhörer mit Geräuschunterdrückung, in der du ihre Merkmale hervorhebst: kristallklarer Klang, 30 Stunden Akkulaufzeit, bequemes Over-Ear-Design und aktive Geräuschunterdrückung. Zielgruppe: junge Berufstätige und Studierende." Diese Detailgenauigkeit hilft der KI, gezieltere und effektivere Marketinginhalte zu erstellen.

  • Chatbots für den Kundenservice: Im Kundenservice können Chatbots, die von LLMs angetrieben und durch Prompt-Engineering verfeinert werden, eine breite Palette von Kundenanfragen effizient bearbeiten. Anstatt sich auf statische Skripte zu verlassen, können Prompts dynamisch auf der Grundlage der Eingaben des Kunden generiert werden, um die Konversation zu einer Lösung zu führen. Zum Beispiel kann für eine Benutzeranfrage wie "Meine Bestellung ist noch nicht angekommen" ein Prompt erstellt werden, der den Chatbot anweist: "Frag höflich nach der Bestellnummer und der E-Mail-Adresse des Kunden. Sobald du diese Informationen erhalten hast, überprüfe den Bestellstatus in unserem System und informiere den Kunden über den aktuellen Stand der Sendungsverfolgung und die voraussichtliche Lieferfrist. Wenn sich die Bestellung verzögert, entschuldige dich aufrichtig und biete eine Entschädigung an, z. B. einen Rabatt auf den nächsten Einkauf." Diese technische Aufforderung stellt sicher, dass der Chatbot hilfreiche, kontextbezogene Unterstützung bietet und die Kundenzufriedenheit erhöht.

Schlüsselkonzepte in der Schnelltechnik

Für ein effektives Prompt-Engineering sind mehrere Schlüsselkonzepte entscheidend:

  • Klarheit und Spezifität: Die effektivsten Aufforderungen sind klar und spezifisch und lassen der KI wenig Spielraum, die gewünschte Ausgabe falsch zu interpretieren. Zweideutige Aufforderungen können zu allgemeinen oder irrelevanten Antworten führen. Anstatt z. B. zu fragen: "Erkenne Objekte in diesem Bild", wäre eine klarere Aufforderung: "Identifiziere und zeichne Bounding Boxes um alle Autos und Fußgänger in diesem Bild". Bei Aufgaben zur Objekterkennung mit Ultralytics YOLO Modellen sind präzise Anweisungen der Schlüssel zu genauen Ergebnissen.

  • Bereitstellung des Kontexts: Die Bereitstellung von ausreichend Kontext hilft der KI, die Nuancen der Anfrage zu verstehen. Dazu können Hintergrundinformationen, der gewünschte Tonfall, der Stil oder bestimmte Einschränkungen gehören. Bei der Stimmungsanalyse kann die Angabe der Quelle des Textes (z. B. "Kundenrezension", "Social Media Post") die Genauigkeit der Stimmungsanalyse verbessern.

  • Iterative Verfeinerung: Die Entwicklung von Prompts ist oft ein iterativer Prozess. Das Experimentieren mit verschiedenen Formulierungen, Strukturen und Parametern ist entscheidend, um die Prompts zu finden, die die besten Ergebnisse liefern. Plattformen wie Ultralytics HUB können dabei helfen, Experimente mit verschiedenen Prompts und Modellen zu verwalten und zu verfolgen.

  • Few-shot Learning: Viele fortschrittliche LLMs unterstützen das "few-shot learning", bei dem du ein paar Beispiele für die gewünschten Eingabe-Ausgabe-Paare direkt in der Eingabeaufforderung angibst. So kann das Modell den gewünschten Stil oder das gewünschte Format besser nachahmen. Ein paar Beispiele für korrekt formatierte Ausgaben können die Fähigkeit des Modells, komplexe Formatierungsanweisungen zu befolgen, deutlich verbessern.

Wenn du diese Prinzipien verstehst und anwendest, kannst du die Leistung von KI-Modellen durch geschicktes Prompt-Engineering effektiv nutzen, neue Möglichkeiten erschließen und KI-gesteuerte Arbeitsabläufe optimieren.

Alles lesen