Co-Intelligence
Alle Folgen / EP_035
EP_035 35 min

Prompting ist tot? Warum KI jetzt den Prompt schreibt

System-Prompting statt Einmal-Prompts: Wie ein 6-Stufen-Workflow (Ziel → Meta → Infos → Prompt → Test → Refinement) bessere KI-Ergebnisse liefert.

Erschienen 19. November 2025
// Lieber nur Audio? Bei Spotify hören

// KI-Zusammenfassung

Diese Folge beleuchtet, wie sich die Interaktion mit KI-Modellen wandelt: weg vom manuellen Prompt Engineering hin zu Meta-Prompting, bei dem die KI selbst Prompts generiert, und Context Engineering, das die dynamische Bereitstellung relevanter Informationen in den Vordergrund stellt. Es werden eine Sechs-Schritte-Methode für Meta-Prompting vorgestellt und die Bedeutung von Kontextfenstern sowie deren Limitationen diskutiert.

Kapitel

  1. 01
    0:00

    Intro & Thema

  2. 02
    2:15

    Warum klassisches Prompting an Grenzen stößt

  3. 03
    5:40

    Meta-Prompting: Wenn KI ihren eigenen Prompt schreibt

  4. 04
    9:10

    Die 6-Stufen-Methode: Ziel → Meta → Infos → Prompt → Test → Refinement

  5. 05
    13:55

    Context-Engineering: Relevante Infos zur richtigen Zeit

  6. 06
    18:30

    Format & Beispiele als Steuerungselemente

  7. 07
    22:00

    Wiederholbarkeit statt Einmal-Prompt

  8. 08
    27:15

    Prompt-Playgrounds & Reasoning-Budget

  9. 09
    31:40

    Vom Prompt Engineer zu AI Ops / Knowledge Ops

  10. 10
    36:25

    Studien & Quellen: Self-Consistency, DPO, Claude Skills

  11. 11
    41:00

    Fazit: Warum die Zukunft von KI Systemdesign ist

Shownotes

Prompting war gestern – jetzt kommt System-Prompting. Benjamin Wüstenhagen und Moritz Heininger zeigen, wie man KI mit Meta-Prompting, Context-Engineering und strukturiertem Workflow-Design auf das nächste Level hebt.

Statt Einmal-Prompts geht es um ein 6-Stufen-System: Ziel → Meta → Infos → Prompt → Test → Refinement. Das Modell hilft, bessere Prompts zu bauen – und mit klar definiertem Kontext und Format entsteht Wiederholbarkeit statt Zufall.

Wir sprechen über Playgrounds, Reasoning-Budget und warum die Rolle des Prompt Engineers zum AI Ops / Knowledge Ops wird – der Basis für Agenten und Skills. Und: warum Teams selten an Prompts, sondern an Datenqualität scheitern.

Die Zukunft von KI heißt Systemdenken statt Promptexperimente. ---

TIMESTAMPS

  1. 0:00 Intro & Thema
  2. 2:15 Warum klassisches Prompting an Grenzen stößt
  3. 5:40 Meta-Prompting: Wenn KI ihren eigenen Prompt schreibt
  4. 9:10 Die 6-Stufen-Methode: Ziel → Meta → Infos → Prompt → Test → Refinement
  5. 13:55 Context-Engineering: Relevante Infos zur richtigen Zeit
  6. 18:30 Format & Beispiele als Steuerungselemente
  7. 22:00 Wiederholbarkeit statt Einmal-Prompt
  8. 27:15 Prompt-Playgrounds & Reasoning-Budget
  9. 31:40 Vom Prompt Engineer zu AI Ops / Knowledge Ops
  10. 36:25 Studien & Quellen: Self-Consistency, DPO, Claude Skills
  11. 41:00 Fazit: Warum die Zukunft von KI Systemdesign ist

LINKS & QUELLEN

Self-Consistency – Wang et al. (2022) https://arxiv.org/abs/2203.11171 DPO – Rafailov et al. (2023) https://arxiv.org/abs/2305.18290 Claude Skills (Anthropic) https://www.anthropic.com/news/claude-skills

Erkenntnisse

  • 1:08

    Meta-Prompting ermöglicht es, die KI selbst Prompts erstellen zu lassen, anstatt den perfekten Prompt manuell zu formulieren, was den Prozess effizienter macht.

  • 1:53

    Die Sechs-Schritte-Methode für Meta-Prompting umfasst Nachdenken, die KI nach fehlenden Informationen fragen, diese bereitstellen, den Prompt generieren lassen, testen und optimieren.

  • 14:43

    Große Kontextfenster von KI-Modellen können zum Phänomen "Lost in the Middle" führen, bei dem Informationen in der Mitte des Inputs übersehen werden, wie bei Google Gemini 2.5 geschehen.

  • 28:45

    Developer nutzen Playgrounds wie OpenAI Playground oder Google AI Studio, um KI-Modelle und Prompts zu testen und Parameter wie "Temperature" oder "Thinking" anzupassen.

Zitate

  • „Das größte Modell gerade ist irgendwie eins von diesen Crockmodellen. Crck 4 Fast 2 Millionen Kontextfenster."

  • „Was ist Metapompting? mit der KI zu prompten. Also ich gehe nicht rein, versuche den perfekten Prompt zu erstellen, um dann sozusagen mich über potenziell mehrere Stufen zum Ziel zu hangeln, sondern ich lasse erstmal in einem KI Shirt ein Prompt erstellen und verwende diesen Prompt dann sozusagen weiter."

  • „Die haben auch das Modell beworben mit 2 Millionen und haben dann gemerkt, dass das Modell zu viel Fehler macht und haben es dann wiederum auf 1 Million begrenzt sozusagen, weil sie gemerk das Modell sozusagen sicherer ist."

  • „Ja, Context Engineering, das neue Prompt Engineering, ein neuer Job für Nada. Ja, zumindest was den was die Begrifflichkeit angeht, Kontext Engineering, wenn mal die Google Trends anschaut, glaube ich, am Prompt Engineering vorbeigezogen,"

  • „Er sagt im Prinzip, dass die meisten AI Educator immer noch komplett alte Prompting Techniken quasi vermitteln, irgendwelche Frameworks und sonst irgendwas. Und die wenigsten verstehen heutzutage, dass eben diese diese Formeln, diese genauen Schritten und Definitionen und Frameworks und so weiter und Chain of Thought Prompting dass alles komplett in Relevanz verliert."

Zahlen

  • 2 Millionen

    Das größte Modell, Grok 4 Fast, verfügt über ein Kontextfenster von

    0:00

  • 1,25 Millionen Wörter

    2 Millionen Tokens entsprechen etwa

    0:11

  • sieben Harry Potter Bände

    Dies ist so viel Text wie alle

    0:20

  • 1 Million Tokens

    Google Gemini 2.5 wurde aufgrund von Fehlern von 2 Millionen auf

    13:33

Häufige Fragen

Was ist Meta-Prompting und wie funktioniert es?

Meta-Prompting ist eine Methode, bei der man die KI beauftragt, einen Prompt für eine bestimmte Aufgabe zu erstellen, anstatt selbst den perfekten Prompt zu formulieren. Man gibt der KI ein Ziel und relevanten Kontext vor, lässt sie Fragen stellen, beantwortet diese und erhält dann einen strukturierten Prompt, oft im Markdown-Format, den man weiterverwenden kann.

Was ist das Phänomen "Lost in the Middle" bei KI-Modellen?

Das Phänomen "Lost in the Middle" beschreibt, dass KI-Modelle bei sehr großen Kontextfenstern dazu neigen, Informationen am Anfang und Ende des Inputs gut zu verarbeiten, aber Details in der Mitte zu übersehen. Dies kann zu Fehlern oder Halluzinationen führen und ist ein Grund, warum einige Modelle ihre Kontextfenster begrenzen.

Was ist Context Engineering und warum ist es wichtig?

Context Engineering ist die dynamische Bereitstellung und Aktualisierung von relevantem Kontext (Daten, Historie, Regeln, Tools) für KI-Systeme, insbesondere für autonome Agenten. Es ist entscheidend, um sicherzustellen, dass KI-Systeme stets mit den aktuellsten und relevantesten Informationen arbeiten können, was über das statische Prompt Engineering hinausgeht.

Welche Rolle spielen Playgrounds für KI-Entwickler?

Playgrounds sind Entwicklerumgebungen (z.B. OpenAI Playground, Google AI Studio), in denen technisch versierte Nutzer KI-Modelle und Prompts testen können. Hier lassen sich Modelle mit reduzierten Systemprompts vergleichen und Parameter wie "Temperature" (Kreativität) oder "Thinking" (Rechenzeit) anpassen, um die optimale Konfiguration für Produkte und Anwendungen zu finden.

Welche Datenschutzaspekte müssen bei der Nutzung von KI-Tools beachtet werden?

Bei der Nutzung von KI-Tools, insbesondere mit Konnektoren zu persönlichen Daten wie Google Drive oder SharePoint, muss der Datenschutz beachtet werden. Bei vielen Free- oder Business-Accounts findet die Datenverarbeitung auf amerikanischen Servern statt, was datenschutzrechtlich relevant ist. Enterprise-Versionen bieten oft die Verarbeitung in Europa, sind aber an Mindestlizenzen gebunden.

Anleitungen

Nutze die 6-Schritte Meta-Prompting Methode

Wende einen strukturierten 6-Schritte-Workflow an, um die Qualität deiner KI-Prompts systematisch zu verbessern und präzisere Ergebnisse zu erzielen.

  1. 01

    Kontext und Ziel brainstormen

    Überlege dir zunächst den Kontext deiner Aufgabe und was du mit der KI erreichen möchtest, bevor du mit dem Prompting beginnst.

    1:50

  2. 02

    KI nach benötigten Infos fragen

    Frage die KI direkt, welche spezifischen Informationen sie benötigt, um die gestellte Aufgabe optimal zu lösen.

    1:55

  3. 03

    Fehlende Informationen bereitstellen

    Liefere der KI alle angefragten und für die Aufgabe relevanten Informationen, die ihr noch fehlen.

    1:57

  4. 04

    KI den Prompt generieren lassen

    Lass die KI den eigentlichen Prompt basierend auf den bereitgestellten Informationen schreiben, idealerweise in einem strukturierten Format wie Markdown.

    1:58

  5. 05

    Generierten Prompt testen und optimieren

    Teste den von der KI erstellten Prompt und iteriere bei Bedarf, um die Ergebnisse kontinuierlich zu verbessern und zu optimieren.

    2:01

Fokus auf Context Engineering legen

Verstehe den Wandel von statischem Prompt Engineering hin zum dynamischen Context Engineering, um autonome KI-Agenten effektiver zu steuern.

  1. 01

    Paradigmenwechsel verstehen

    Erkenne, dass sich der Fokus von der einmaligen Erstellung perfekter Prompts hin zur dynamischen Bereitstellung von relevantem Kontext für KI-Systeme verschiebt.

    14:10

  2. 02

    Dynamischen Kontext bereitstellen

    Stelle dem KI-System kontinuierlich und dynamisch den aktuellen Kontext zur Verfügung, den es für seine Aufgaben benötigt.

    14:14

  3. 03

    Datenhistorie einbeziehen

    Integriere die gesamte Datenhistorie und relevante Vergangenheitsinformationen in den Kontext, den du der KI gibst.

    14:16

  4. 04

    Regeln und Tools definieren

    Definiere klare Regeln und stelle der KI die notwendigen Tools zur Verfügung, die sie zur Ausführung ihrer Aufgaben nutzen kann.

    14:16

Weitere Fragen

Wie nutze ich Meta-Prompting für bessere Ergebnisse?

Beim Meta-Prompting schreibst du den Prompt nicht mehr selbst, sondern lässt die KI diese Aufgabe übernehmen. Du definierst dein Ziel und den Kontext, lässt die KI nach fehlenden Informationen fragen und erhältst am Ende einen strukturierten Prompt, den du direkt nutzen kannst.

„Also ich gehe nicht rein, versuche den perfekten Prompt zu erstellen, um dann sozusagen mich über potenziell mehrere Stufen zum Ziel zu hangeln, sondern ich lasse erstmal in einem KI Shirt ein Prompt erstellen und verwende diesen Prompt dann sozusagen weiter. Das ganze nennt sich Meta Prompting." · 0:00
Warum löst Context Engineering das klassische Prompting ab?

Während Prompting statische Anweisungen gibt, versorgt Context Engineering autonome KI-Systeme dynamisch mit den aktuellsten Daten, Regeln und Tools. Das ist zwingend notwendig, wenn Agenten komplexe Aufgaben im Unternehmen übernehmen sollen.

„Context Engineering, also der Begriff ist so wichtig, weil es vor allem halt für Systeme relevant ist, wenn ich irgendwie Agentensysteme oder KI Systeme aufbaue, wie ich quasi dynamisch für eine gewisse Aufgabe den relevanten Kontext zur Verfügung stellen. also Daten, Storie, Regeln, welche Tools man irgendwie verwenden kann und so weiter und so fort." · 18:31
Was passiert, wenn ich das Kontextfenster einer KI komplett fülle?

Wenn du zu viele Informationen auf einmal übergibst, tritt das 'Lost in the middle'-Phänomen auf. Die KI verarbeitet den Anfang und das Ende deiner Eingabe gut, ignoriert oder vergisst aber oft die Informationen im Mittelteil.

„Und es gibt dieses Phänomen, das Lost in the middle. Das heißt, ich gebe viele Tokens rein.. Das Modell kann sich an den Anfang erinnern, kann sich ans Ende erinnern, aber das was in der Mitte ist, das geht irgendwie verloren." · 12:09
Darf ich interne Unternehmensdaten in ChatGPT hochladen?

Bei kostenlosen oder Standard-Business-Accounts solltest du das vermeiden, da die Datenverarbeitung auf US-Servern stattfindet. Erst ab der Enterprise-Version (aktuell ab 50 Lizenzen) läuft die Inferenz in Europa ab.

„Sprich, wenn ich sozusagen GBD Access geben zu meinem Google Drive, zu meinem SharePoint und so weiter und dann auf diese Daten zurückgegriffen wird, dann finde das alles kurzzeitig wird nicht drauf gelernt, aber findet zumindest kurzzeitig im USA statt und das natürlich wieder anders wen ich auf der Enterprise Version bin, da komme ich immer nur drauf, wenn ich Abstand jetzt aktuell, das ändert sich auch ständig, ich minimum 50 Lizenzen abnehme" · 25:09
Wofür brauche ich KI-Playgrounds wie das Google AI Studio?

Playgrounds sind Testumgebungen, in denen du Modelle ohne stark einschränkende Systemprompts der Anbieter testen kannst. Du kannst dort Parameter wie die 'Temperature' anpassen, um die Kreativität der Antworten für deine eigenen Produkte gezielt zu steuern.

„Wesentlich ist eine Testing Environment für Developer, wo ich Sachen ausprobieren kann., so kann man es glaube ich high level sagen., ich kann dort Modelle auch ohne die Systemprompts oder ist immer mit stark reduzierten Systemprompts der Anbieter testen" · 28:02

Diese Folge wird zitiert in

Transkript

// Vollständiges Transkript

Komplettes Transkript dieser Folge öffnen →