Die meisten "Wie-schreibt-man-Prompts"-Artikel behandeln alle LLMs als austauschbar. Sind sie aber nicht. Claude reagiert anders auf Prompts als ChatGPT, Gemini oder Llama — genug, dass derselbe Prompt dramatisch unterschiedliche Outputs über Modelle hinweg produzieren kann. Wenn du Claude für komplexe Argumentation als Standard verwendest (und das solltest du bei vielen Tasks), verbessern die hier beschriebenen Techniken deinen Output messbar.
Warum Claude anders ist
Claude (besonders Sonnet 4.5 und Opus 4) hat drei Eigenheiten:
1. Es reagiert stark auf Struktur. XML-getaggte Inputs performen messbar besser als unstrukturierter Text. Wo ChatGPT mit "bitte fasse das zusammen" zufrieden ist, produziert Claude besseren Output mit .
2. Es nimmt Instruktionen wörtlich. Wenn du sagst "denke Schritt für Schritt", zeigt es seine Arbeit. ChatGPT überspringt das oft trotz gleicher Anweisung.
3. Es handhabt langen Kontext besser. Claude's 200K+ Context-Window ist nicht nur größer — es ist nutzbarer. Das "lost in the middle"-Problem von GPT ist weniger stark.
Die XML-Struktur-Methode
Warum XML funktioniert
LLMs wurden auf riesigen Mengen XML-getaggter Inhalte trainiert (HTML, technische Docs). Wenn du deine Prompt-Komponenten in XML-Tags verpackst, parsed das Modell sie als distinkte semantische Einheiten statt einem Text-Blob.
Die Basis-Struktur
```
Review die Python-Funktion unten. Identifiziere Performance-Probleme.
def process_orders(orders):
result = []
for o in orders:
user = db.query(User).filter_by(id=o.user_id).first()
result.append({'order': o, 'user': user.name})
return result
- Primäres Performance-Problem (was und warum)
- Schweregrad (kritisch / hoch / mittel)
- Lösungsvorschlag mit Code-Beispiel
```
Diese Struktur schlägt Plain-Text-Framing um ~30-50% bei komplexen technischen Tasks.
Die wichtigsten Tags
— wer Claude ist (primed Vokabular, Ton, Argumentations-Stil)— was zu tun ist— Hintergrundinfos— der zu verarbeitende Inhalt— harte Regeln— Few-Shot-Beispiele— erwartete Output-Struktur
Chain-of-Thought (die Claude-Art)
Statt nur "denke Schritt für Schritt" zu sagen, gib Claude einen expliziten Denkraum:
```
Alle Vögel können fliegen. Pinguine sind Vögel. Also können Pinguine fliegen.
Arbeite dich durch im
```
Der -Tag gibt Claude einen expliziten Reasoning-Raum. Nachweislich messbar bessere Antworten.
Show, don't tell
Claude ist exzellent im Pattern-Matching aus Few-Shot-Beispielen:
```
Input: "Software Engineer bei Google"
Output: "Baue was du täglich nutzt @ Google · Schreibe Code der auf 2B-User-Skala läuft"
Input: "Marketing Manager"
Output: "Verwandle Marketing-Budgets in Umsatz · B2B-SaaS 5-50M Segment"
Buchhalter bei KPMG
```
Drei Beispiele schlagen jede verbale Tonbeschreibung.
Häufige Claude-spezifische Fehler
1. Höflichkeits-Fluff — "Bitte", "könntest du", "ich würde mich freuen" → Tokens verschwendet, kein besserer Output.
2. Zu viel Rolle — "Du bist ein Experte mit 20 Jahren Erfahrung bei FAANG..." → Claude extrahiert die ersten 3-5 relevanten Deskriptoren und ignoriert den Rest.
3. Verwirrte Constraints — Sich widersprechende Anweisungen produzieren Output der keine sauber erfüllt.
4. Selbstevaluation verlangen — Claude's Selbstbewertung ist fast immer positiv. Für echte Evaluation: frische Session.
5. Zu viele Tasks in einem Prompt — Split in sequentielle Prompts. Jeder Task sauberer, jeder Output besser.
Claude vs. ChatGPT: wann was?
- Langer Dokumentanalyse (bis 200K+ Tokens)
- Komplexer Argumentation
- Code-Review und Refactoring
- Sorgfältigem, nuanciertem Schreiben
- Schnellen Kurz-Tasks
- Multimodal (Bilder + Text)
- Real-Time-Informationen
- Tool-Use
5 copy-ready Claude-Prompts
```
Produziere Zusammenfassung in drei Teilen:
- Ein-Satz-These
- Drei Kernargumente
- Stärkstes Gegenargument das der Autor nicht adressiert
```
```
[paste code]
Review für: Korrektheit, Performance, Security, Wartbarkeit.
Top 3 Issues nach Schweregrad gerankt. Konkrete Fixes mit Code.
```
```
Ich entscheide zwischen [X] und [Y].
Kontext: [background].
Constraints: [Zeit, Geld, Beziehungen].
Pre-mortem: stell dir vor es sind 2 Jahre her und ich habe [X] gewählt und es ist gescheitert.
Schreib die 3 plausibelsten Failure-Storys.
Dann dasselbe für [Y].
Dann vergleiche welche Failures überlebbarer sind.
```
Das Meta-Prinzip
Claude belohnt Spezifität. Jede zusätzliche Einschränkung, jedes Beispiel, jede Format-Anweisung verbessert den Output in der Regel — bis zu einem Punkt. Dieser Punkt liegt meist bei 200-400 Wörtern Prompt für komplexe Tasks.
Darunter: unter-spezifiziert. Darüber: Modell verwirrt.
Professionelle XML-Prompts in Aktion findest du in den Promptolis Originals — alle MIT-lizenziert, kannst du kopieren und anpassen.