Lädt...

Prompt Chaining

Prompt Chaining ist eine fortgeschrittene Technik im Prompt Engineering, bei der mehrere Prompts in einer sequenziellen Kette miteinander verbunden werden, um komplexe Aufgaben Schritt für Schritt zu lösen. Anstatt zu versuchen, eine umfangreiche Anweisung in einem einzigen Prompt zu formulieren, wird die Aufgabe in kleinere, logisch aufeinanderfolgende Teilschritte zerlegt. Jeder Schritt nutzt entweder das Ergebnis des vorherigen Prompts oder verfeinert es, um das Endergebnis präziser und kontrollierter zu gestalten.
Diese Methode ist besonders wichtig, wenn große Sprachmodelle komplexe, mehrstufige Aufgaben verarbeiten sollen – etwa bei der Erstellung umfangreicher Berichte, der Durchführung von Datenanalysen oder der Generierung von Inhalten mit spezifischen Stil- und Formatvorgaben. Prompt Chaining verbessert die Genauigkeit, reduziert Fehler und erleichtert die Iteration.
In diesem Tutorial lernen Sie, wie Sie mit Prompt Chaining:

  • komplexe Prozesse in kontrollierbare Schritte aufteilen,
  • Zwischenergebnisse effektiv nutzen,
  • die Konsistenz und Qualität von AI-Ausgaben steigern.
    Praktische Anwendungen reichen von der schrittweisen Texterstellung über automatisierte Recherche bis hin zu Code-Generierung mit mehreren Validierungsschritten. Am Ende werden Sie in der Lage sein, eigene Prompt-Ketten zu entwerfen, anzupassen und für verschiedene Anwendungsfälle zu optimieren – von Business-Reports bis hin zu kreativen Projekten.

Grundlegendes Beispiel

prompt
PROMPT Code
Prompt 1:
"Fasse den folgenden Text in drei prägnanten Sätzen zusammen:
\[Hier Text einfügen]"

Prompt 2:
"Formuliere die folgende Zusammenfassung in einer einfachen Sprache, die für ein breites Publikum verständlich ist:
\[Zusammenfassung aus Prompt 1 einfügen]"

Kontext: Dieses Beispiel zeigt, wie man einen komplexen Text zunächst reduziert und anschließend sprachlich anpasst. So entsteht in zwei Schritten ein leicht verständlicher Output.

Dieses grundlegende Beispiel besteht aus zwei einfachen, aber klar abgegrenzten Prompts. Der erste Prompt konzentriert sich ausschließlich auf die inhaltliche Reduktion: Er fordert eine Zusammenfassung in genau drei Sätzen, was die AI zwingt, den Inhalt zu priorisieren und irrelevante Details zu entfernen. Dadurch entsteht eine saubere, komprimierte Grundlage für den nächsten Schritt.
Der zweite Prompt nutzt genau diese Zusammenfassung, um den Text für eine breitere Zielgruppe zugänglich zu machen. Der Fokus liegt nun nicht mehr auf Informationsdichte, sondern auf Verständlichkeit. Diese klare Trennung der Aufgaben verhindert, dass die AI versucht, gleichzeitig zu kürzen und zu vereinfachen – was oft zu unpräzisen oder verwässerten Ergebnissen führt.
In der Praxis kann diese Struktur leicht angepasst werden:

  • Statt einer allgemeinen Zusammenfassung könnte der erste Schritt eine Fachzusammenfassung für Experten sein, gefolgt von einer populärwissenschaftlichen Erklärung.
  • Der zweite Schritt könnte auch eine Übersetzung in eine andere Sprache sein.
  • Sie könnten zusätzliche Schritte hinzufügen, z. B. das Einfügen von Beispielen oder das Erstellen einer Stichpunktliste.
    So verdeutlicht das Beispiel die Stärke von Prompt Chaining: Komplexe Ziele werden in klar getrennte, sequenzielle Mikroaufgaben aufgeteilt, was Präzision und Kontrolle erhöht.

Praktisches Beispiel

prompt
PROMPT Code
Prompt 1:
"Analysiere den folgenden Kundenfeedback-Text und extrahiere alle positiven und negativen Aussagen. Formatiere sie als zwei getrennte Listen:
\[Hier Kundenfeedback einfügen]"

Prompt 2:
"Erstelle aus den folgenden Listen eine strukturierte Tabelle mit den Spalten 'Kategorie', 'Aussage' und 'Tonfall':
\[Listen aus Prompt 1 einfügen]"

Prompt 3:
"Schreibe auf Basis der folgenden Tabelle einen kurzen Managementbericht (max. 200 Wörter) mit den wichtigsten Erkenntnissen und Empfehlungen:
\[Tabelle aus Prompt 2 einfügen]"

Variationen:

* Schritt 1 kann um eine Sentiment-Analyse mit Prozentwerten erweitert werden.
* Schritt 2 könnte zusätzlich eine Priorisierung nach Dringlichkeit enthalten.
* Schritt 3 kann in einem spezifischen Tonfall (z. B. formell, motivierend) ausgegeben werden.

Best Practices und häufige Fehlerquellen beim Prompt Chaining:
Best Practices:

  1. Schritte klar abgrenzen – Jeder Prompt sollte nur eine Hauptaufgabe enthalten.
  2. Zwischenergebnisse dokumentieren – Immer das Output-Format konsistent halten, um es im nächsten Schritt zuverlässig zu verwenden.
  3. Kontext beibehalten – Relevante Informationen aus vorherigen Schritten explizit in den nächsten Prompt einfügen.
  4. Kontrollpunkte einbauen – Zwischenschritte zur Überprüfung der Genauigkeit einplanen.
    Häufige Fehler:

  5. Zu viele Aufgaben in einem Schritt – führt zu unklaren Ergebnissen.

  6. Fehlende Formatvorgaben – erschwert die Weiterverarbeitung der Outputs.
  7. Annahme, dass das Modell den Kontext „automatisch“ behält – ohne explizite Wiederholung können Informationen verloren gehen.
  8. Ungetestete Ketten – jede Prompt-Kette sollte vor Einsatz in der Praxis iterativ getestet und angepasst werden.
    Troubleshooting:
  • Wenn ein Schritt schlechte Ergebnisse liefert, überprüfen Sie zuerst die Klarheit und Präzision des Prompts.
  • Achten Sie auf einheitliche Datenformate (z. B. JSON, Tabellen, Listen).
  • Testen Sie alternative Formulierungen und kontrollieren Sie Zwischenergebnisse.

📊 Schnelle Referenz

Technique Description Example Use Case
Lineare Kette Feste Abfolge von Prompts, jeder Schritt nutzt das Ergebnis des vorherigen Berichtserstellung in 3 Schritten
Verzweigte Kette Ein Schritt erzeugt mehrere Outputs für parallele Weiterverarbeitung Mehrere Übersetzungen in verschiedenen Stilen
Loop Chaining Wiederholung von Schritten, bis ein Ziel erreicht ist Automatische Textkorrektur in Iterationen
Validierungs-Schritt Zwischenschritt prüft Qualität oder Format Codegenerierung mit Syntaxprüfung
Kontextanreicherung Ein Schritt fügt externe Informationen hinzu Produktbeschreibung mit recherchierten Daten
Formattransformation Ändert die Struktur des Outputs Rohdaten zu JSON-Format konvertieren

Fortgeschrittene Techniken und nächste Schritte:
Fortgeschrittenes Prompt Chaining kann auch dynamische Ketten beinhalten, bei denen die Ausführung abhängig vom Output vorheriger Schritte angepasst wird. So lassen sich adaptive Systeme bauen, die auf unerwartete Ergebnisse reagieren. Auch die Integration von Tools oder APIs in einzelne Schritte erweitert die Möglichkeiten erheblich – etwa, indem ein Schritt externe Daten abruft und im nächsten analysiert.
Diese Technik lässt sich mit anderen Methoden wie Few-Shot Learning, RAG (Retrieval-Augmented Generation) oder Agent-basierten Workflows kombinieren. Besonders mächtig wird Prompt Chaining in Verbindung mit Validierungsschritten, bei denen die AI ihr eigenes Ergebnis überprüft und verbessert.
Als nächste Themen empfiehlt es sich, sich mit Multi-Agent-Architekturen, Tool-Integration (z. B. Python-Skripte in Prompt-Ketten) und automatisierter Prompt-Optimierung zu beschäftigen. Mit stetigem Testen, Anpassen und Erweitern Ihrer Ketten werden Sie Schritt für Schritt zu einem Experten in der Anwendung dieser Technik – und können Ihre AI-Systeme wesentlich zuverlässiger und zielgerichteter einsetzen.

🧠 Testen Sie Ihr Wissen

Bereit zum Start

Testen Sie Ihr Wissen

Testen Sie Ihr Verständnis dieses Themas mit praktischen Fragen.

4
Fragen
🎯
70%
Zum Bestehen
♾️
Zeit
🔄
Versuche

📝 Anweisungen

  • Lesen Sie jede Frage sorgfältig
  • Wählen Sie die beste Antwort für jede Frage
  • Sie können das Quiz so oft wiederholen, wie Sie möchten
  • Ihr Fortschritt wird oben angezeigt