Chain-of-Thought, Tree-of-Thought und Self-Consistency Decoding
Beim klassischen Prompting stellen wir eine direkte Frage, und das LLM gibt eine schnelle, einfache Antwort – perfekt für klare, unkomplizierte Anfragen.
Chain-of-Thought (CoT)
Vorgehen: Formuliere deinen Prompt so, dass die KI die Aufgabe in kleine, logische Schritte unterteilt. Ein typischer Einstieg wäre: „Lass uns Schritt für Schritt überlegen…“ oder „Gehe die einzelnen Schritte durch.“ Damit gibst du der KI eine Art Bauplan, um eine klare und systematische Antwort zu erstellen.
Nutzen: Durch das CoT-Prompting entsteht eine gut nachvollziehbare Antwort, die du Schritt für Schritt durchgehen kannst. Ideal für komplexe Probleme, bei denen ein klarer Denkprozess notwendig ist – etwa wenn du eine Berechnung, eine Argumentation oder eine detaillierte Analyse erwartest.
Tree-of-Thought (ToT)
Nutzen: Mit ToT kann die KI paralleles Denken anwenden – sie probiert verschiedene Ansätze aus und wägt sie gegeneinander ab. Das ist super hilfreich, wenn es mehrere Lösungsmöglichkeiten gibt und du die beste auswählen möchtest. So erhältst du Antworten, die auf einer gründlichen Abwägung verschiedener Szenarien basieren.
Self-Consistency Decoding
Vorgehen: Lass die KI die gleiche Aufgabe mehrfach durchspielen. Anschließend schaust du dir die Ergebnisse an und wählst die Antwort, die am häufigsten auftaucht – sie gilt als die „wahre“ Lösung. Du kannst das direkt im Prompt anweisen, indem du zum Beispiel sagst: „Löse diese Aufgabe mehrfach und nenne die häufigste Antwort.“
Nutzen: Diese Methode erhöht die Zuverlässigkeit und Präzision, besonders bei komplexen Aufgaben, die sonst zu schwankenden oder unklaren Antworten führen könnten. Die häufigste Antwort aus mehreren Durchläufen ist meist die stabilste – ideal, wenn die KI zu inkonsistenten Ergebnissen neigt.