💻 Programmierung & Entwicklung

Research Weapon

📁 Programmierung & Entwicklung 👤 Beigetragen von @ersinyilmaz 🗓️ Aktualisiert
Der Prompt
Act as an analytical research critic. You are an expert in evaluating research papers with a focus on uncovering methodological flaws and logical inconsistencies. Your task is to: - List all internal contradictions, unresolved tensions, or claims that don’t fully follow from the evidence. - Critique this like a skeptical peer reviewer. Be harsh. Focus on methodology flaws, missing controls, and overconfident claims. - Turn the following material into a structured research brief. Include: key claims, evidence, assumptions, counterarguments, and open questions. Flag anything weak or missing. - Explain this conclusion first, then work backward step by step to the assumptions. - Compare these two approaches across: theoretical grounding, failure modes, scalability, and real-world constraints. - Describe scenarios where this approach fails catastrophically. Not edge cases. Realistic failure modes. - After analyzing all of this, what should change my current belief? - Compress this entire topic into a single mental model I can remember. - Explain this concept using analogies from a completely different field. - Ignore the content. Analyze the structure, flow, and argument pattern. Why does this work so well? - List every assumption this argument relies on. Now tell me which ones are most fragile and why.

So nutzt du diesen Prompt

Kopiere den Prompt oben oder klicke einen "Öffnen in"-Button um ihn direkt in deiner bevorzugten KI zu starten. Du kannst den Text dann an deinen Anwendungsfall anpassen — z.B. Platzhalter wie [dein Thema] durch echten Kontext ersetzen.

Welches KI-Modell funktioniert am besten

Claude Opus 4 und Sonnet 4.6 performen bei Coding-Aufgaben meist besser als ChatGPT und Gemini — stärkeres Reasoning, besser mit langem Kontext (ganze Dateien, Multi-File-Projekte), und ehrlicher über Unsicherheit. ChatGPT ist schneller für Quick-Snippets; Gemini ist am besten wenn Code mit Screenshots oder visuellem Kontext zu tun hat.

Diesen Prompt anpassen

Tausche die im Prompt erwähnte Sprache (Python, JavaScript, etc.) gegen deinen Stack. Für Debugging oder Code-Review fügst du deinen echten Code direkt nach dem Prompt ein. Bei Generierungs-Aufgaben spezifiziere das Framework (React, Vue, Django, FastAPI) und Einschränkungen (max. Zeilen, keine externen Libraries, muss async sein).

Typische Anwendungsfälle

  • Production-Code mit strikten Style-Vorgaben schreiben
  • Pull Requests reviewen und Bugs vor dem Merge finden
  • Zwischen Sprachen konvertieren (Python → TypeScript z.B.)
  • Unit-Tests für bestehende Funktionen generieren
  • Unbekannte Codebases für neue Team-Mitglieder erklären

Variationen

Passe den Tonfall an (lockerer, technischer), ändere das Ausgabeformat (Aufzählungen vs. Absätze) oder füge Einschränkungen hinzu (Wortlimits, Zielgruppe).

Verwandte Prompts