"A journalist who is also a bad programmer, stylized in the style of Gary Larson"
Eine antropomorphe Bullen-Statue mit verschränkten Armen im Nadelstreifen-Anzug vor einer Wand mit einer Collagen-Tapete aus alten, übermalten zeitungen

Prompting-Formeln sind Bullshit. Hier ist meine.

Oder: ROMANE revisited! 

KI hat sich weiterentwickelt – es wird mal wieder Zeit, meine Prompting-Tipps auf den neuesten Stand zu bringen: Weshalb das N auf einmal für „Struktur“ steht – und mehr. 

Manche Provisorien sind langlebig. Meine ROMANE-Formel – der kleine Merkvers für Aspekte, die helfen, eine Anfrage an eine KI zu stellen – ist so eins: Als ich in der ChatGPT-Frühzeit Rezepte für erfolgreiche Prompts in eine kleine Faustregel packen wollte, kam ich bei diesen Buchstaben an. 2024 habe ich sie dann schon einmal überarbeitet und mich dafür durch die Wissenschaft des Promptens gepflügt – da sich ChatGPT, Gemini, Claude und Mistral  gehörig weiterentwickelt haben und die dahinter arbeitenden Sprachmodelle sowieso, wird es höchste Zeit, sie mal wieder infrage zu stellen. 

Vielleicht auch mal ganz grundlegend: Sind Kochrezepte für den guten Prompt nicht ohnehin Blödsinn? Einiges spricht dafür. 

Weshalb Prompt-Rezepte Bullshit sind…

  • Keine Gelingt-immer-Garantie. Wenn ich ein Rezept vor mir habe, all die Zutaten besorgt und dann in der richtigen Reihenfolge in den Topf werfe, erwarte ich, dass auch was Essbares rauskommt. Das ist aber bei Prompt-Rezepten nicht garantiert! Nicht mal bei meinem. 
  • Schema F statt kreativer Problemlösung. Prompting-Rezepte gaukeln vor, dass man nur die einzelnen Schritte nachbeten muss und dann ein optimales Ergebnis bekommt. Das wird vielen Aufgaben einfach nicht gerecht, und manchmal kann man das Ergebnis sogar verschlechtern, wenn man unbedingt noch eine Rollenbeschreibung einbauen muss (ein Beispiel dafür hatte ich letzte Woche.)  
  • Der Sog des richtigen Buchstabens. Merkworte sind toll, weil man sie sich gut merken kann, leiden aber darunter, dass man jeden Buchstaben auch irgendwie mit Bedeutung füllen muss. Das führt manchmal zu reichlich gequälten Interpretationen („O“ für „Objective“? Also bitte!) und dazu, dass Ungleiches gleich gewichtet wird: Ursprünglich stand das „N“ mal für „Nützliche Details“. Dass man der KI Informationen geben soll, die ihr bei der Aufgabe helfen, ist trivial – auf jeden Fall im Vergleich zum Nutzen von Beispielen oder Lösungswegen. 
  • Kein Frackzwang, bitte! Prompts sollen einen klaren Arbeitsauftrag und klare Informationen an ein Sprachmodell vermitteln, nicht formale Kriterien erfüllen. Einmal hatte ich einen Seminarteilnehmer, der zugab: „Ich tippe meine Aufgaben für die KI nicht gerne ein, ich nutze viel lieber die Dialog-Funktion in der ChatGPT-App.“ Ich finde, dass er vollkommen Recht hat: Wenn er das in freier Rede besser kann, sollte ich mich nicht Schriftsprache abquälen. Oder versuchen, den formalen Regeln einer Prompting-Formel zu folgen. 

…und weshalb ich trotzdem daran festhalte

  • Gibt Orientierung. Wenn etwas nicht so funktioniert, wie wir es erhoffen, ist es menschlich zu sagen: kann die KI das nicht, oder habe ich das verbockt? Gerade für Menschen, die noch nicht so viel mit KI zu tun hatten, hilft es, ein paar feste Anhaltspunkte zu haben: So kann ich mit der KI reden.
  • Hilft dir, kreativ über dein Problem nachzudenken. In den Strategien finden sich Beispiele, die helfen, auf eigene Ideen zu kommen, und die Anweisungen zu strukturieren. 
  • Hilft dir, mit der KI zu kommunizieren. Letzten Endes geht es ja genau darum: einem technischen System mitzuteilen, was man wie gelöst haben will. 

Aber es hilft, nicht von „Prompting-Formel“ oder „Rezept“ zu reden, sondern von Prompting-Strategien. Da ist dann auch klarer, dass es nicht um eine Checkliste geht, die abgearbeitet werden muss, sondern um Anregungen zur kreativen Problemlösung.

Weshalb das „N“ in ROMANE auf einmal für „Struktur“ steht

Schluss mit dem Terror des Akronyms! Die wichtigste Änderung meines kleinen Merkverses geht auf einen Punkt ein, der gerade bei neuen Modellen eine große Rolle spielt: Struktur. Den Prompt gliedern, und seine Teile in ihrer Funktion auszeichnen, das sorgt dafür, dass sich das Sprachmodell deutlich besser an die Vorgaben hält. Aktuell spielt das eine große Rolle in den Prompting-Guides für die aktuellen Top-Modelle 🌐 OpenAI GPT-5.2 und dem für 🌐 Google Gemini 3 vom Google-Ingenieur Phil Schmidt.

Natürlich brauche ich sie nicht immer. Auch so ein Prompt funktioniert einigermaßen: 

Ich brauche einen Kreativpartner, der mir eine Idee von allen Seiten beleuchtet, so wie die Denkhüte von Edward de Bono: blau, gelb, grün, rot, schwarz, weiß.

Aber abgesehen, dass er eine Menge Wissen über die Denkhüte-Methode (🌐 Friedens-Akademie Uni Koblenz) voraussetzt: Er ist unübersichtlich und unklar. So geht’s besser: 

  • In Abschnitte gliedern
  • Die Abschnitte klar in ihrer Funktion benennen
  • Stichpunkte für die einzelnen Anweisungen

Um die Abschnitte des Prompts für die KI zu bezeichnen, nutzen wir Markdown. Das sind Zeichen im Text, Format-Anweisungen enthalten: Ein „#“ zu Beginn einer Zeile kennzeichnet diese als Überschrift, Text zwischen zwei Sternchen vorn und hinten wird **fett** geschrieben, ein Strich – oder * Sternchen am Zeilenanfang markiert einen Spiegelstrich, und so weiter. (🌐 Markdown Cheat Sheet von heise.de) Viele Computer-Seiten wie Github verstehen Markdown – und eben auch KI-Sprachmodelle. Wie man das zum Beispiel für Tabellen nutzen kann: hier entlang

Eine verbesserte und ausgebaute Version des Denkhüte-Prompts sieht dann zum Beispiel so aus: 

# Aufgabe und Rolle
Als Trainer für Kreativität Probleme aus verschiedenen Perspektiven diskutieren. 

# Vorgehen
* Beurteile das Problem nacheinander aus der Sicht der „Denkhüte“, verschiedener Denkstile: Weiß, Rot, Schwarz, Gelb, Grün, Blau.
* Baue in der blauen Sichtweise am Ende auf den Perspektiven der anderen auf; strukturiere die Gedanken der anderen und fasse sie zusammen.  


## Denkhüte
* Weiß: neutrales, analytisches Denken. Mitglieder in dieser Rolle beschäftigen sich nur mit Fakten, Zahlen und Daten. Sie vermeiden es, sich eine subjektive Meinung zu bilden und bewerten nicht.
* Rot: subjektives, emotionales Denken. Persönliche Meinung und positive wie negative Gefühle betrachten. Hier dürfen auch Widersprüche auftreten.
* Schwarz: pessimistischer Kritiker. Der Kritiker konzentriert sich auf objektive Argumente, die negative Aspekten hervorheben. Risiken und Einwände.
* Gelb: optimistischer Kritiker. Gegensatz zum Pessimisten: Hier ist realistischer Optimismus gefragt. Positive Argumente werden gesammelt. Objektive Chancen und Vorteile.
* Grün: nnovation, Neuheit und Assoziation. Neue Ideen und kreative Vorschläge produzieren. Alle Ideen werden ohne kritische Auseinandersetzung gesammelt.
* Blau: Ordnung, Durch- und Überblick. Ideen und Gedanken strukturieren.


## Ausgabeformat
Antworte in Stichpunkten. Beschränke dich je Denkhut auf die drei wichtigsten Aspekte. 

# Regeln
Drück dich präzise und knapp aus. Spekuliere nicht. 

Die Riesen-Vorteile: 

  • Der Prompt wird klarer – und viel besser verständlich. Für uns, und für die KI. 
  • Wenn der Prompt angepasst werden muss, weil z.B. das Format nicht stimmt, sieht man auf einen Blick, wo.
  • Es hilft uns selbst zu klären, was wir von der KI wollen, und wie wir das beschreiben.

Ein niedlicher Roboter mit leuchtend orangefarbenen Augen hält ein Klemmbrett und steht vor einer Tafel. Um ihn herum fliegen rosa und rote Herzen. Auf der Tafel steht in Klammern: „\<guidelines\>Do not elaborate\</guidelines\>“ und „\<output_format\>Output markdown bullet points\</output_format\>“.

Statt Markdown: <XML>-Tags

Markdown-Überschriften sind nicht die einzige Art und Weise, wie man einen Prompt für die KI strukturieren kann. Eine andere Möglichkeit sind XML-Tags: wenn ich einem Textblock eine bestimmte Funktion zuweisen möchte, zum Beispiel die Detailtiefe des Ausgabeformats zu bestimmen, rät mir der der GPT-5.2-Prompting-Guide zu so etwas:

<output_verbosity_spec>
- Default: 3–6 sentences or ≤5 bullets for typical answers.
- For simple “yes/no + short explanation” questions: ≤2 sentences.
</output_verbosity_spec>

Der Textblock wird durch die XML-Tags markiert – Schlüsselworte in spitzen Klammern, die den Text umschließen und ihm eine bestimmte Funktion zuweisen. 

Muss man die Schlüsselwörter kennen? Nein, muss man nicht. Es muss nur eindeutig und verständlich sein. 

Prompting-Strategien: ROMANE 2026

Die aufgefrischte ROMANE-Formel mit effektiven Prompting-Strategien: 

  • (R)olle: Da Sprachmodelle dafür gebaut sind, menschliche Dialoge zu imitieren, kann man sie über Rollenvorgaben auf den richtigen Weg bringen: Seminar planen? Rolle: Seminarcoach, denn die sagen Seminarcoach-Dinge und reden über Methoden, Abläufe, Ziele. Do’s und Don’ts zu Rollen hier – man darf sie gern kreativer denken als nur: „Du bist jetzt…“, und man sollte nicht erwarten, dass die Wunder-Rolle der KI auf einmal erweiterte Fähigkeiten gibt. Und da Rollen ja letztlich die Einladung zum Drauflos-Halluzinieren sind, sollte man sich sicher sein können, dass die Antworten auch verwertbar sind. 
  • (O)bjective, (O)utput: Der KI mitteilen, was ich haben will – und in welcher Form. Dazu muss ich mir selbst erst mal klar werden, was ich eigentlich will. 
  • (M)eta-Anweisungen: Der KI sagen, wie sie die Aufgabe angehen soll. Den Prompt-Klassiker „Gehe Schritt für Schritt vor“ muss ich im Zeitalter der Reasoning-Modelle nicht mehr einbauen; sie sorgen letztlich dafür, dass ein Sprachmodell nicht nur Lösungen aus den Trainingsdaten ziehen kann, sondern auch Lösungswege. Das nimmt mir aber nicht alle Arbeit ab; wenn ich eine komplexe Aufgabe gelöst haben will, sollte ich sie der KI in Abschnitte und Einzelteile herunterbrechen. 
  • (A)nwendungsbeispiele: Show, don’t tell – ein, zwei Beispiele ersparen mir langwierige Formatbeschreibungen; „few-shot prompts“ mit Beispiel-Ergebnissen sind immer noch eine sträflich vernachlässigte, aber außerordentlich effektive Technik. 
  • (N) steht für Struktur.  Siehe oben: Prompts durchstrukturieren, in einzelne Abschnitte gliedern, Abschnitte durch Überschriften oder XML-Tags in ihrer Funktion kennzeichnen. 
  • (E)inschränkungen: Denke daran, dass zu lange Kontexte die Qualität der Antworten mindern, und dass nicht alle Teile eines Prompts gleich stark beachtet werden: Die Wahrscheinlichkeit, dass eine Information oder Vorgabe vom Modell aufgenommen wird, nimmt zur Mitte des Kontextes hin ab. Überhaupt, Wahrscheinlichkeit: Den Zufall immer auf dem Schirm haben. Daran denken, dass ein Prompt kein Befehl ist und prompten nicht wie programmieren; dass die Ergebnisse immer wieder etwas anders sind, gehört bei Sprachmodellen dazu. Diese Varianz muss ich berücksichtigen; auch, dass Prompten keine exakte Wissenschaft ist, sondern stark von Versuch und Irrtum lebt. Und natürlich kann bei der nächsten Version des Sprachmodells wieder alles ganz anders funktionieren. 

Auch lesenswert:

Kurzlink zu diesem Artikel: https://janeggers.tech/2w6m

Neue Posts einfach per Mail zugeschickt bekommen? Dann hier eintragen; die Mails kannst du natürlich jederzeit wieder abbestellen.

Loading

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert