Bessere KI-Prompts schreiben (mit Beispielen)
Einen guten Prompt zu schreiben ist die wirkungsvollste Fähigkeit im Umgang mit KI. Ein klarer, strukturierter Prompt verwandelt eine mittelmäßige Antwort in ein präzises, brauchbares Ergebnis. Dieser Guide gibt Ihnen ein konkretes Framework, das Sie sofort auf jedes Modell und jede Aufgabe anwenden können.
Was einen guten Prompt ausmacht
Ein guter Prompt beseitigt Mehrdeutigkeit. Das Modell kennt weder Ihren Kontext noch Ihre Zielgruppe oder Ihre Qualitätsansprüche, solange Sie diese nicht benennen. Vage Eingaben wie „Schreib mir eine E-Mail" zwingen das Modell zum Raten. Und es wird fast immer falsch raten.
Starke Prompts teilen drei Eigenschaften: Sie sind spezifisch bezüglich des gewünschten Ergebnisses, sie liefern den Kontext, den das Modell braucht, und sie setzen Einschränkungen zu Format oder Länge. Der OpenAI Prompt Engineering Guide nennt das „klare Anweisungen schreiben" und empfiehlt es als wirksamste Einzeltechnik.
Vergleichen Sie diese zwei Prompts. Schlecht: „Fasse diesen Artikel zusammen." Besser: „Fasse diesen Artikel in drei Stichpunkten für einen Produktmanager zusammen, der ihn nicht gelesen hat. Maximal 20 Wörter pro Punkt." Die zweite Version sagt dem Modell, was es produzieren soll, für wen und in welchem Umfang. Diese Genauigkeit trennt brauchbare Ergebnisse von generischem Fülltext.
Falls Sie nur eine Sache aus diesem Guide mitnehmen: Jede Information, die Sie weglassen, ist eine Entscheidung, die Sie dem Modell überlassen. Manchmal ist das in Ordnung. Meistens nicht.
Das Rolle-Aufgabe-Format-Framework
Die einfachste Struktur, die zuverlässig gute Ergebnisse liefert, hat drei Teile: Rolle, Aufgabe und Format. Weisen Sie der KI eine Rolle zu („Du bist ein erfahrener Werbetexter"), beschreiben Sie die Aufgabe („Schreibe eine Headline für die Landingpage einer Budget-App für Studierende") und legen Sie das Format fest („Gib mir fünf Vorschläge, jeder unter 10 Wörtern").
Dieses Framework funktioniert, weil es dem Briefing eines menschlichen Kollegen entspricht. Sie würden kein Projekt übergeben, ohne die Rolle, den Auftrag und das Lieferformat zu erklären. Der Anthropic Prompt Engineering Guide empfiehlt Rollenzuweisung als eine der ersten Techniken, weil sie Tonalität und Expertenniveau des Modells verankert.
Hier ein Template zum Kopieren:
Rolle: Du bist ein [Berufsbezeichnung] mit Expertise in [Fachgebiet].
Aufgabe: [Aktionsverb] + [was] + [für wen / warum].
Format: Liefere das Ergebnis als [Stichpunkte / Tabelle / JSON / Fließtext]. Maximal [Länge].
Sie brauchen nicht alle drei Teile bei jedem Prompt, aber dieser Startpunkt gibt Ihnen eine verlässliche Basis. Sobald das Ergebnis in die richtige Richtung geht, verfeinern Sie einzelne Elemente.
Eine Aufgabe pro Prompt
Mehrere Aufgaben in einen einzigen Prompt zu packen ist der schnellste Weg zu mittelmäßigen Ergebnissen bei allen. Wenn Sie „recherchiere Wettbewerber, schreibe dann ein Positionierungsstatement, entwirf anschließend drei Anzeigentitel" in einem Prompt verlangen, bekommt jede Teilaufgabe weniger Aufmerksamkeit, als sie verdient.
Teilen Sie komplexe Arbeit stattdessen in eine Kette fokussierter Prompts auf. Bitten Sie zuerst um die Recherche. Prüfen Sie das Ergebnis. Geben Sie die relevanten Erkenntnisse dann in einen zweiten Prompt für das Positionierungsstatement. Verwenden Sie dieses Statement in einem dritten Prompt für die Anzeigentitel. Jeder Schritt baut auf einem geprüften Ergebnis des vorherigen auf.
Dieser Ansatz hat einen praktischen Vorteil jenseits der Qualität: Fehler lassen sich leichter finden. Wenn Ihre Anzeigentitel nicht stimmen, können Sie das Problem zum Positionierungsstatement oder zur Recherche zurückverfolgen, ohne alles neu zu starten. Der Google Gemini Prompting Guide empfiehlt ebenfalls, komplexe Aufgaben aufzuteilen, weil einfachere Prompts vorhersagbarere Ergebnisse liefern.
Eine nützliche Faustregel: Wenn Ihr Prompt die Wörter „dann" oder „außerdem" mehr als einmal enthält, macht er wahrscheinlich zu viel. Teilen Sie ihn auf.
Einschränkungen und Ausschlusslisten
Dem Modell zu sagen, was es nicht tun soll, ist genauso wichtig wie die eigentliche Anweisung. Ohne Einschränkungen bekommen Sie Standardverhalten: lange Absätze, generische Formulierungen und überflüssige Absicherungen.
Einschränkungen können Länge betreffen („unter 200 Wörter"), Tonalität („kein Fachjargon, Leseniveau Klasse 8"), Struktur („nummerierte Schritte, keine Absätze") oder Inhalt („nenne keine Wettbewerbernamen"). Ausschlusslisten helfen bei wiederkehrenden Problemen. Wenn das Modell immer wieder Disclaimer einfügt, die Sie nicht wollen, ergänzen Sie „Füge keine Disclaimer oder Einschränkungen hinzu" in Ihrem Prompt.
Der Anthropic Guide empfiehlt explizite Einschränkungen, um Halluzinationen zu reduzieren, besonders wenn das Modell Quellen zitieren oder sich an bereitgestellte Daten halten soll. Eine Einschränkung wie „Verwende nur Informationen aus dem obigen Dokument. Falls die Antwort nicht im Dokument steht, sage das." verbessert die faktische Genauigkeit erheblich.
Bauen Sie sich eine persönliche Bibliothek von Einschränkungen auf, die Ihre wiederkehrenden Probleme lösen. Mit der Zeit entsteht ein Werkzeugkasten aus wiederverwendbaren Prompt-Bausteinen, die Ihnen bei jeder Generierung Bearbeitungszeit sparen.
Beispiele und Few-Shot Prompting
Dem Modell zu zeigen, was Sie wollen, ist oft wirkungsvoller als es zu beschreiben. Diese Technik heißt „Few-Shot Prompting": Sie fügen ein oder mehrere Beispiele des gewünschten Eingabe-Ausgabe-Paars direkt in den Prompt ein.
Angenommen, Sie brauchen strukturierte Daten aus Fließtext. Statt das Ausgabeschema lang zu beschreiben, fügen Sie ein Beispiel ein: „Eingabe: ‚Max Mustermann, CEO, Eintritt März 2019.' Ausgabe: { name: ‚Max Mustermann', titel: ‚CEO', startdatum: ‚2019-03' }." Das Modell erkennt das Muster und wendet es zuverlässig auf neue Eingaben an.
Der OpenAI Guide empfiehlt Few-Shot-Beispiele als eine der zuverlässigsten Methoden, um Ausgabeformat und Stil zu steuern. Selbst ein einziges Beispiel (One-Shot) verbessert die Konsistenz gegenüber einem Prompt ohne Beispiel (Zero-Shot) deutlich.
Wählen Sie Beispiele, die auch Grenzfälle abdecken, nicht nur den einfachen Standardfall. Wenn Ihre Daten manchmal fehlende Felder haben, zeigen Sie ein Beispiel mit einem fehlenden Feld, damit das Modell weiß, wie es damit umgehen soll. Zwei oder drei gut gewählte Beispiele schlagen zehn beliebige jedes Mal.
Prompts testen und iterieren
Ihr erster Prompt ist ein Entwurf, kein fertiges Produkt. Behandeln Sie Prompt-Schreiben wie Code: Schreiben, mit ein paar Eingaben testen, Ausgabe prüfen und überarbeiten. Die meisten Leute hören nach dem ersten Versuch auf und geben dem Modell die Schuld, wenn das Ergebnis nicht passt.
Eine einfache Iterationsschleife: (1) Prompt ausführen. (2) Die größte Abweichung zwischen Ist und Soll identifizieren. (3) Eine Einschränkung, ein Beispiel oder eine Klarstellung ergänzen, die genau diese Lücke adressiert. (4) Erneut ausführen. Zwei bis drei Durchläufe reichen in der Regel für ein produktionsreifes Ergebnis.
Führen Sie ein Prompt-Protokoll. Wenn ein Prompt zuverlässig funktioniert, speichern Sie ihn an einem auffindbaren Ort. Notieren Sie die Aufgabe, das getestete Modell und was ihn wirksam macht. Das erspart Ihnen, bereits gelöste Prompts neu zu erfinden.
Der Google Gemini Prompting Guide empfiehlt, denselben Prompt mit leicht abgewandelter Formulierung zu testen, um die Stabilität zu prüfen. Wenn kleine Änderungen in der Formulierung stark unterschiedliche Ergebnisse liefern, ist Ihr Prompt zu fragil und braucht mehr Struktur. Konsistenz über mehrere Durchläufe ist der echte Test für einen gut geschriebenen Prompt.