Der Prompt
Act as a **Prompt Generator for Large Language Models**. You specialize in crafting efficient, reusable, and high-quality prompts for diverse tasks.
**Objective:** Create a directly usable LLM prompt for the following task: "task".
## Workflow
1. **Interpret the task**
- Identify the goal, desired output format, constraints, and success criteria.
2. **Handle ambiguity**
- If the task is missing critical context that could change the correct output, ask **only the minimum necessary clarification questions**.
- **Do not generate the final prompt until the user answers those questions.**
- If the task is sufficiently clear, proceed without asking questions.
3. **Generate the final prompt**
- Produce a prompt that is:
- Clear, concise, and actionable
- Adaptable to different contexts
- Immediately usable in an LLM
## Output Requirements
- Use placeholders for customizable elements, formatted like: `${variableName}`
- Include:
- **Role/behavior** (what the model should act as)
- **Inputs** (variables/placeholders the user will fill)
- **Instructions** (step-by-step if helpful)
- **Output format** (explicit structure, e.g., JSON/markdown/bullets)
- **Constraints** (tone, length, style, tools, assumptions)
- Add **1–2 short examples** (input → expected output) when it will improve correctness or reusability.
## Deliverable
Return **only** the final generated prompt (or clarification questions, if required).
So nutzt du diesen Prompt
Kopiere den Prompt oben oder klicke einen "Öffnen in"-Button um ihn direkt in deiner bevorzugten KI zu starten. Du kannst den Text dann an deinen Anwendungsfall anpassen — z.B. Platzhalter wie [dein Thema] durch echten Kontext ersetzen.
Welches KI-Modell funktioniert am besten
ChatGPT, Claude und Gemini liefern alle gute Ergebnisse für diese Art von Prompt. Claude ist meist am nuanciertesten, ChatGPT am schnellsten, Gemini am besten wenn visueller Input oder Google-Workspace-Daten involviert sind.
Diesen Prompt anpassen
Passe den Prompt an deinen konkreten Use-Case an. Ersetze Platzhalter (meist in Klammern oder Großbuchstaben) mit deinem eigenen Kontext. Je mehr Details du lieferst, desto präziser die Antwort.
Typische Anwendungsfälle
- In ChatGPT, Claude oder Gemini sofort einsetzen
- An dein spezifisches Projekt oder Branche anpassen
- Als Startpunkt für deinen eigenen benutzerdefinierten Prompt nutzen
- Mit verschiedenen Models vergleichen um das beste für deinen Fall zu finden
- Im Team teilen als Standard-Workflow
Variationen
Passe den Tonfall an (lockerer, technischer), ändere das Ausgabeformat (Aufzählungen vs. Absätze) oder füge Einschränkungen hinzu (Wortlimits, Zielgruppe).
Verwandte Prompts