Prompt Engineering
Prompt Engineering ist die Praxis, Eingaben für KI-Sprachmodelle so zu entwerfen und zu verfeinern, dass zuverlässig gewünschte Ausgaben erreicht werden – und das ganz ohne Änderungen an den zugrunde liegenden Modellgewichten.
Verstehen Prompt Engineering
Prompts sind die primäre Schnittstelle zwischen Menschen und Sprachmodellen. Ein gut gestalteter Prompt kann die Qualität, Konsistenz und Zuverlässigkeit von KI-Ausgaben enorm steigern. Prompt Engineering umfasst dabei alles – von Wortwahl und Verständlichkeit der Anweisungen über Rollendefinitionen, Few-Shot-Beispiele, Schritt-für-Schritt-Argumentationen bis hin zu Vorgaben zum Ausgabeformat. Wichtige Techniken des Prompt Engineerings sind Zero-Shot Prompting (direkte Anweisungen ohne Beispiele), Few-Shot Prompting (Beispiele zeigen das gewünschte Ausgabeformat), Chain-of-Thought Prompting (das Modell wird angeleitet, Schritt für Schritt zu überlegen), Role Prompting (eine Persona oder Rolle wird zugewiesen, um den Ansatz des Modells zu lenken) und strukturiertes Prompting (exaktes Vorgeben von Formaten wie JSON für die programmgesteuerte Weiterverarbeitung). Gerade in Agentensystemen ist Prompt Engineering entscheidend, da der System-Prompt die Persona, Fähigkeiten, Einschränkungen und die Entscheidungsfindung des Agenten definiert. Der Unterschied zwischen einem hilfreichen und einem unvorhersehbaren Agenten liegt oft an der Qualität des Prompts. Gute Prompts sind eindeutig darin, was der Agent tun soll – und was nicht –, geben klare Beispiele für das erwartete Verhalten und enthalten Sicherheitsvorkehrungen. Prompt Engineering wird zunehmend durch automatische Ansätze wie DSPy ergänzt, die mittels Optimierungsalgorithmen besonders leistungsfähige Prompts finden. Menschlich gestaltete Prompts bleiben jedoch wichtig, um KI-Verhalten gezielt zu steuern und zu verstehen.
Wie GAIA verwendet Prompt Engineering
Das Agentenverhalten von GAIA wird durch sorgfältig entwickelte System-Prompts geprägt, die in ihrem Prompts-Verzeichnis gespeichert sind. Diese Prompts definieren, wie GAIA über E-Mail-, Kalender- und Aufgabenmanagement nachdenkt, welche Tools bevorzugt werden sollen, wie mit unklaren Situationen umzugehen ist und wie mit Nutzern kommuniziert wird. GAIA verwendet außerdem Few-Shot-Beispiele in den Prompts, um konsistent strukturierte Daten wie Aufgabendetails und Kalendereinträge aus unstrukturierten E-Mail-Texten zu extrahieren.
Verwandte Konzepte
Large Language Model (LLM)
Ein Large Language Model (LLM) ist ein Deep-Learning-Modell, das auf riesigen Textdatensätzen trainiert wurde. Es kann menschliche Sprache verstehen, generieren und in einer Vielzahl von Aufgaben anwenden.
Chain-of-Thought-Reasoning
Chain-of-Thought (CoT) Reasoning ist eine Prompting-Technik, bei der ein KI-Modell aufgefordert wird, seine Zwischenschritte im Denkprozess offen darzulegen, bevor es eine finale Antwort gibt. Dies erhöht die Genauigkeit bei komplexen mehrstufigen Aufgaben erheblich.
Zero-Shot Learning
Zero-Shot Learning ist die Fähigkeit eines KI-Modells, Aufgaben zu erledigen, für die es nie explizit trainiert wurde, indem es auf Allgemeinwissen und logisches Denken zurückgreift, anstatt auf aufgabenspezifische Beispiele.
Few-Shot Learning
Few-Shot Learning bezeichnet die Fähigkeit eines KI-Modells, sich mithilfe weniger Eingabe-Ausgabe-Beispiele im Prompt auf eine neue Aufgabe oder ein neues Ausgabeformat einzustellen – ganz ohne Änderung der Modellparameter.
Large Language Model (LLM)
Ein Large Language Model (LLM) ist ein künstliches Intelligenzmodell, das mit riesigen Mengen an Textdaten trainiert wurde und menschliche Sprache bemerkenswert flüssig verstehen, generieren und verarbeiten kann.


