Chain-of-Thought-Reasoning
Chain-of-Thought (CoT) Reasoning ist eine Prompting-Technik, bei der ein KI-Modell aufgefordert wird, seine Zwischenschritte im Denkprozess offen darzulegen, bevor es eine finale Antwort gibt. Dies erhöht die Genauigkeit bei komplexen mehrstufigen Aufgaben erheblich.
Verstehen Chain-of-Thought-Reasoning
Entdeckt durch Forschung bei Google Brain, beinhaltet Chain-of-Thought-Prompting das Hinzufügen von "Lass uns Schritt für Schritt denken" oder das Vorlegen von Beispielen mit expliziten Gedankengängen zu LLM-Prompts. Diese einfache Anpassung verbessert die Leistung bei arithmetischen Aufgaben, logischem Denken und Planungsaufgaben deutlich, da das Modell das Problem schrittweise anstatt direkt zu lösen versucht. Der zugrundeliegende Mechanismus ist, dass die Erzeugung von Zwischenschritten die Ausgabe des Modells in Richtung logisch kohärenter Gedankengänge lenkt. Fehler in den frühen Schritten können erkannt und korrigiert werden, bevor sie sich fortpflanzen, und die Verarbeitung des Modells verteilt sich auf mehrere Token. Chain-of-Thought ist besonders wichtig für KI-Agenten. Bevor ein Agent entscheidet, welches Tool er verwenden oder welche Aktion er ausführen soll, profitiert er davon, die Situation durchzudenken: Was will der Nutzer, welche Informationen liegen vor, welche Werkzeuge stehen zur Verfügung und in welcher logischen Reihenfolge sollten die Schritte erfolgen? Diese explizite Denkphase macht das Verhalten des Agenten vorhersehbarer und leichter nachvollziehbar. Varianten sind Zero-Shot-CoT (das Hinzufügen von "Denke Schritt für Schritt" zu beliebigen Prompts), Few-Shot-CoT (Beispiele mit Gedankengängen geben) und Tree-of-Thought (mehrere Denkpfade erkunden und den besten auswählen). Moderne Modelle wie Claude und GPT-4o haben CoT-Fähigkeiten bereits während des Trainings integriert.
Wie GAIA verwendet Chain-of-Thought-Reasoning
Die Agenten-Prompts von GAIA fördern Chain-of-Thought-Reasoning, bevor Maßnahmen ergriffen werden. Beim Verarbeiten einer komplexen E-Mail oder beim Planen eines mehrstufigen Workflows denkt das LLM zunächst die Situation durch: Was ist die Absicht? Welcher Kontext ist vorhanden? Welche Tools werden benötigt und in welcher Reihenfolge? Diese Überlegungsphase reduziert Fehler bei der Tool-Auswahl und Workflow-Planung, wodurch GAIAs autonome Handlungen zuverlässiger und nachvollziehbarer werden.
Verwandte Konzepte
Prompt Engineering
Prompt Engineering ist die Praxis, Eingaben für KI-Sprachmodelle so zu entwerfen und zu verfeinern, dass zuverlässig gewünschte Ausgaben erreicht werden – und das ganz ohne Änderungen an den zugrunde liegenden Modellgewichten.
Few-Shot Learning
Few-Shot Learning bezeichnet die Fähigkeit eines KI-Modells, sich mithilfe weniger Eingabe-Ausgabe-Beispiele im Prompt auf eine neue Aufgabe oder ein neues Ausgabeformat einzustellen – ganz ohne Änderung der Modellparameter.
KI-Agent
Ein KI-Agent ist ein autonomes Softwaresystem, das seine Umgebung wahrnimmt, über Handlungen nachdenkt und Maßnahmen ergreift, um bestimmte Ziele ohne fortlaufende menschliche Anleitung zu erreichen.
KI-Orchestrierung
KI-Orchestrierung ist die Koordination mehrerer KI-Agenten, Modelle und Tools, die gemeinsam komplexe, mehrschrittige Aufgaben erledigen, welche keine einzelne Komponente alleine bewältigen könnte.
Large Language Model (LLM)
Ein Large Language Model (LLM) ist ein künstliches Intelligenzmodell, das mit riesigen Mengen an Textdaten trainiert wurde und menschliche Sprache bemerkenswert flüssig verstehen, generieren und verarbeiten kann.


