System-Prompt
Ein System-Prompt ist eine Anweisung, die einem Sprachmodell zu Beginn einer Sitzung gegeben wird. Sie legt Persona, Einschränkungen, Ton und Verhaltensregeln fest, bevor eine Interaktion mit dem Nutzer startet.
Verstehen System-Prompt
Sprachmodelle akzeptieren Eingaben in mehreren Rollen: System (Anweisungen der Anwendung), Benutzer (Nachrichten vom Endnutzer) und Assistent (frühere Antworten des Modells). Der System-Prompt übernimmt die Systemrolle und ist für den Nutzer meist nicht sichtbar – er legt fest, wie sich das Modell im Verlauf der Konversation verhält. System-Prompts schaffen einen Kontext, der über das gesamte Gespräch hinweg bestehen bleibt. Sie können eine Persona definieren ("Du bist ein professioneller E-Mail-Assistent"), Einschränkungen setzen ("Erfinde keine Daten – konsultiere immer Tools für aktuelle Informationen"), das Ausgabeformat festlegen ("Antworte auf Aufgabenlisten immer mit strukturiertem JSON") oder nutzerbezogenen Kontext einbringen ("Der Nutzer heißt Alex, arbeitet im Vertrieb und lebt in der Zeitzone PST"). Das Verfassen von System-Prompts ist ein wesentlicher Bestandteil beim Entwickeln von KI-Anwendungen. Ein gut formulierter System-Prompt kann die Konsistenz, Genauigkeit und Angemessenheit von Modellantworten erheblich steigern. Ein schlecht gestalteter Prompt kann hingegen dazu führen, dass ein leistungsfähiges Modell sich inkonsistent verhält. Da KI-Assistenten immer persönlicher werden – also Präferenzen, Rolle, Kommunikationsstil und Kontext des Nutzers kennen – spiegelt sich diese Personalisierung zunehmend im System-Prompt wider: Ein allgemeines LLM wird so zum maßgeschneiderten Assistenten für eine bestimmte Person.
Wie GAIA verwendet System-Prompt
GAIA verwendet ausführliche System-Prompts, um das Verhalten der KI für jede:n Nutzer:in zu personalisieren. Der System-Prompt berücksichtigt Ihre Rolle, verbundene Tools, Kommunikationspräferenzen, wichtige Beziehungen und den aktuellen Projektkontext. Dadurch wird das zugrundeliegende LLM von einem allgemeinen Assistenten zu einer persönlichen Produktivitäts-KI, die Ihre spezifische Arbeitsumgebung versteht.
Verwandte Konzepte
Prompt Engineering
Prompt Engineering ist die Praxis, Eingaben für KI-Sprachmodelle so zu entwerfen und zu verfeinern, dass zuverlässig gewünschte Ausgaben erreicht werden – und das ganz ohne Änderungen an den zugrunde liegenden Modellgewichten.
Large Language Model (LLM)
Ein Large Language Model (LLM) ist ein Deep-Learning-Modell, das auf riesigen Textdatensätzen trainiert wurde. Es kann menschliche Sprache verstehen, generieren und in einer Vielzahl von Aufgaben anwenden.
Kontextfenster
Das Kontextfenster ist die maximale Anzahl an Tokens, die ein Sprachmodell in einem einzelnen Inferenzaufruf verarbeiten kann. Es umfasst den System-Prompt, die Gesprächshistorie, abgerufene Dokumente und die generierte Ausgabe.
Agenten-Gedächtnis
Agenten-Gedächtnis ist die Fähigkeit eines KI-Agenten, Informationen aus vergangenen Interaktionen, Beobachtungen und Handlungen zu speichern, abzurufen und für zukünftiges Verhalten zu nutzen – und so einen beständigen Kontext über mehrere Sitzungen hinweg zu ermöglichen.
Feinabstimmung
Feinabstimmung ist der Prozess, bei dem ein vortrainiertes KI-Modell mit einem kleineren, aufgabenspezifischen Datensatz weitertrainiert wird, um dessen Verhalten für einen bestimmten Fachbereich oder eine Anwendung anzupassen.


