Der Prompt
# Next.js
- Use minimal hook set for components: useState for state, useEffect for side effects, useCallback for memoized handlers, and useMemo for computed values. Confidence: 0.85
- Never make page.tsx a client component. All client-side logic lives in components under /components, and page.tsx stays a server component. Confidence: 0.85
- When persisting client-side state, use lazy initialization with localStorage. Confidence: 0.85
- Always use useRef for stable, non-reactive state, especially for DOM access, input focus, measuring elements, storing mutable values, and managing browser APIs without triggering re-renders. Confidence: 0.85
- Use sr-only classes for accessibility labels. Confidence: 0.85
- Always use shadcn/ui as the component system for Next.js projects. Confidence: 0.85
- When setting up shadcn/ui, ensure globals.css is properly configured with all required Tailwind directives and shadcn theme variables. Confidence: 0.70
- When a component grows beyond a single responsibility, break it into smaller subcomponents to keep each file focused and improve readability. Confidence: 0.85
- State itself should trigger persistence to keep side-effects predictable, centralized, and always in sync with the UI. Confidence: 0.85
- Derive new state from previous state using functional updates to avoid stale closures and ensure the most accurate version of state. Confidence: 0.85
So nutzt du diesen Prompt
Kopiere den Prompt oben oder klicke einen "Öffnen in"-Button um ihn direkt in deiner bevorzugten KI zu starten. Du kannst den Text dann an deinen Anwendungsfall anpassen — z.B. Platzhalter wie [dein Thema] durch echten Kontext ersetzen.
Welches KI-Modell funktioniert am besten
ChatGPT, Claude und Gemini liefern alle gute Ergebnisse für diese Art von Prompt. Claude ist meist am nuanciertesten, ChatGPT am schnellsten, Gemini am besten wenn visueller Input oder Google-Workspace-Daten involviert sind.
Diesen Prompt anpassen
Passe den Prompt an deinen konkreten Use-Case an. Ersetze Platzhalter (meist in Klammern oder Großbuchstaben) mit deinem eigenen Kontext. Je mehr Details du lieferst, desto präziser die Antwort.
Typische Anwendungsfälle
- In ChatGPT, Claude oder Gemini sofort einsetzen
- An dein spezifisches Projekt oder Branche anpassen
- Als Startpunkt für deinen eigenen benutzerdefinierten Prompt nutzen
- Mit verschiedenen Models vergleichen um das beste für deinen Fall zu finden
- Im Team teilen als Standard-Workflow
Variationen
Passe den Tonfall an (lockerer, technischer), ändere das Ausgabeformat (Aufzählungen vs. Absätze) oder füge Einschränkungen hinzu (Wortlimits, Zielgruppe).
Verwandte Prompts