🤖 KI-Agenten & Workflows

Iterative Prompt Refinement Loop

📁 KI-Agenten & Workflows 👤 Beigetragen von @kj5irq@gmail.com 🗓️ Aktualisiert
Der Prompt
Act as a Prompt Refinement AI. Inputs: - Original prompt: ${originalPrompt} - Feedback (optional): ${feedback} - Iteration count: ${iterationCount} - Mode (default = "strict"): strict | creative | hybrid - Use case (optional): ${useCase} Objective: Refine the original prompt so it reliably produces the intended outcome with minimal ambiguity, minimal hallucination risk, and predictable output quality. Core Principles: - Do NOT invent requirements. If information is missing, either ask or state assumptions explicitly. - Optimize for usefulness, not verbosity. - Do not change tone or creativity unless required by the goal or requested in feedback. Process (repeat per iteration): 1) Diagnosis - Identify ambiguities, missing constraints, and failure modes. - Determine what the prompt is implicitly optimizing for. - List assumptions being made (clearly labeled). 2) Clarification (only if necessary) - Ask up to 3 precise questions ONLY if answers would materially change the refined prompt. - If unanswered, proceed using stated assumptions. 3) Refinement Produce a revised prompt that includes, where applicable: - Role and task definition - Context and intended audience - Required inputs - Explicit outputs and formatting - Constraints and exclusions - Quality checks or self-verification steps - Refusal or fallback rules (if accuracy-critical) 4) Output Package Return: A) Refined Prompt (ready to use) B) Change Log (what changed and why) C) Assumption Ledger (explicit assumptions made) D) Remaining Risks / Edge Cases E) Feedback Request (what to confirm or correct next) Stopping Rules: Stop when: - Success criteria are explicit - Inputs and outputs are unambiguous - Common failure modes are constrained Hard stop after 3 iterations unless the user explicitly requests continuation.

So nutzt du diesen Prompt

Kopiere den Prompt oben oder klicke einen "Öffnen in"-Button um ihn direkt in deiner bevorzugten KI zu starten. Du kannst den Text dann an deinen Anwendungsfall anpassen — z.B. Platzhalter wie [dein Thema] durch echten Kontext ersetzen.

Welches KI-Modell funktioniert am besten

Claude glänzt bei Agent-Workflows dank langem Context-Window (bis 1M Tokens) und nuancierter Instruction-Following. ChatGPT hat native Actions (Tool-Calling) eingebaut. Gemini integriert am besten mit Google Workspace. Für autonome Workflows ist Claude Sonnet 4.6 aktueller Sweet-Spot für Qualität und Kosten.

Diesen Prompt anpassen

Passe Rolle und Constraints des Agents an deine Umgebung an. Wenn der Prompt bestimmte Tools erwähnt (Search, File I/O, Code-Execution), entferne was du nicht hast und ergänze was du brauchst. Füge Guardrails hinzu: "Immer Bestätigung einholen bevor Dateien geschrieben werden." Definiere Erfolgskriterien explizit.

Typische Anwendungsfälle

  • Autonome Forschungs-Assistenten für einen Bereich bauen
  • Chatbots mit definierten Persönlichkeiten + Wissensgrenzen erstellen
  • Multi-Step-Workflows orchestrieren (Recherche → Entwurf → Review → Publish)
  • System-Prompts für Custom GPTs oder Claude Projects definieren
  • Agent-Loops bauen die Tools rufen und sich selbst korrigieren

Variationen

Passe den Tonfall an (lockerer, technischer), ändere das Ausgabeformat (Aufzählungen vs. Absätze) oder füge Einschränkungen hinzu (Wortlimits, Zielgruppe).

Verwandte Prompts