📝 Blog

Wie man Claude-Prompts schreibt die wirklich funktionieren (2026)

🗓️ Veröffentlicht ⏱️ 14 min 👤 Von Promptolis Editorial

Die meisten "Wie-schreibt-man-Prompts"-Artikel behandeln alle LLMs als austauschbar. Sind sie aber nicht. Claude reagiert anders auf Prompts als ChatGPT, Gemini oder Llama — genug, dass derselbe Prompt dramatisch unterschiedliche Outputs über Modelle hinweg produzieren kann. Wenn du Claude für komplexe Argumentation als Standard verwendest (und das solltest du bei vielen Tasks), verbessern die hier beschriebenen Techniken deinen Output messbar.

Warum Claude anders ist

Claude (besonders Sonnet 4.5 und Opus 4) hat drei Eigenheiten:

1. Es reagiert stark auf Struktur. XML-getaggte Inputs performen messbar besser als unstrukturierter Text. Wo ChatGPT mit "bitte fasse das zusammen" zufrieden ist, produziert Claude besseren Output mit ...fasse zusammen....

2. Es nimmt Instruktionen wörtlich. Wenn du sagst "denke Schritt für Schritt", zeigt es seine Arbeit. ChatGPT überspringt das oft trotz gleicher Anweisung.

3. Es handhabt langen Kontext besser. Claude's 200K+ Context-Window ist nicht nur größer — es ist nutzbarer. Das "lost in the middle"-Problem von GPT ist weniger stark.

Die XML-Struktur-Methode

Warum XML funktioniert

LLMs wurden auf riesigen Mengen XML-getaggter Inhalte trainiert (HTML, technische Docs). Wenn du deine Prompt-Komponenten in XML-Tags verpackst, parsed das Modell sie als distinkte semantische Einheiten statt einem Text-Blob.

Die Basis-Struktur

```

Du bist ein Senior Software Engineer mit Fokus auf Backend-Performance.

Review die Python-Funktion unten. Identifiziere Performance-Probleme.

def process_orders(orders):

result = []

for o in orders:

user = db.query(User).filter_by(id=o.user_id).first()

result.append({'order': o, 'user': user.name})

return result

  • Primäres Performance-Problem (was und warum)
  • Schweregrad (kritisch / hoch / mittel)
  • Lösungsvorschlag mit Code-Beispiel

```

Diese Struktur schlägt Plain-Text-Framing um ~30-50% bei komplexen technischen Tasks.

Die wichtigsten Tags

  • — wer Claude ist (primed Vokabular, Ton, Argumentations-Stil)
  • — was zu tun ist
  • — Hintergrundinfos
  • — der zu verarbeitende Inhalt
  • — harte Regeln
  • — Few-Shot-Beispiele
  • — erwartete Output-Struktur

Chain-of-Thought (die Claude-Art)

Statt nur "denke Schritt für Schritt" zu sagen, gib Claude einen expliziten Denkraum:

```

Bestimme ob das folgende Argument valide ist.

Alle Vögel können fliegen. Pinguine sind Vögel. Also können Pinguine fliegen.

Arbeite dich durch im -Tag. Zeig den Denkprozess dem Nutzer nicht — ich strippe ihn.

```

Der -Tag gibt Claude einen expliziten Reasoning-Raum. Nachweislich messbar bessere Antworten.

Show, don't tell

Claude ist exzellent im Pattern-Matching aus Few-Shot-Beispielen:

```

Wandele die folgenden Job-Titel in selbstbewusste LinkedIn-Headlines um.

Input: "Software Engineer bei Google"

Output: "Baue was du täglich nutzt @ Google · Schreibe Code der auf 2B-User-Skala läuft"

Input: "Marketing Manager"

Output: "Verwandle Marketing-Budgets in Umsatz · B2B-SaaS 5-50M Segment"

Buchhalter bei KPMG

```

Drei Beispiele schlagen jede verbale Tonbeschreibung.

Häufige Claude-spezifische Fehler

1. Höflichkeits-Fluff — "Bitte", "könntest du", "ich würde mich freuen" → Tokens verschwendet, kein besserer Output.

2. Zu viel Rolle — "Du bist ein Experte mit 20 Jahren Erfahrung bei FAANG..." → Claude extrahiert die ersten 3-5 relevanten Deskriptoren und ignoriert den Rest.

3. Verwirrte Constraints — Sich widersprechende Anweisungen produzieren Output der keine sauber erfüllt.

4. Selbstevaluation verlangen — Claude's Selbstbewertung ist fast immer positiv. Für echte Evaluation: frische Session.

5. Zu viele Tasks in einem Prompt — Split in sequentielle Prompts. Jeder Task sauberer, jeder Output besser.

Claude vs. ChatGPT: wann was?

  • Langer Dokumentanalyse (bis 200K+ Tokens)
  • Komplexer Argumentation
  • Code-Review und Refactoring
  • Sorgfältigem, nuanciertem Schreiben
  • Schnellen Kurz-Tasks
  • Multimodal (Bilder + Text)
  • Real-Time-Informationen
  • Tool-Use

5 copy-ready Claude-Prompts

```

[paste text]

Produziere Zusammenfassung in drei Teilen:

  • Ein-Satz-These
  • Drei Kernargumente
  • Stärkstes Gegenargument das der Autor nicht adressiert

```

```

Senior Python Engineer, Production-Readiness-Fokus.

[paste code]

Review für: Korrektheit, Performance, Security, Wartbarkeit.

Top 3 Issues nach Schweregrad gerankt. Konkrete Fixes mit Code.

```

```

Ich entscheide zwischen [X] und [Y].

Kontext: [background].

Constraints: [Zeit, Geld, Beziehungen].

Pre-mortem: stell dir vor es sind 2 Jahre her und ich habe [X] gewählt und es ist gescheitert.

Schreib die 3 plausibelsten Failure-Storys.

Dann dasselbe für [Y].

Dann vergleiche welche Failures überlebbarer sind.

```

Das Meta-Prinzip

Claude belohnt Spezifität. Jede zusätzliche Einschränkung, jedes Beispiel, jede Format-Anweisung verbessert den Output in der Regel — bis zu einem Punkt. Dieser Punkt liegt meist bei 200-400 Wörtern Prompt für komplexe Tasks.

Darunter: unter-spezifiziert. Darüber: Modell verwirrt.

Professionelle XML-Prompts in Aktion findest du in den Promptolis Originals — alle MIT-lizenziert, kannst du kopieren und anpassen.

Tags

Claude Anthropic Prompt Engineering XML Leitfaden

Verwandte Artikel

← Zurück zum Blog