Das Problem, das jeder kennt
Du öffnest einen neuen Chat mit Claude – und fängst wieder von vorne an. Wer du bist, was dein Projekt ist, welche Präferenzen du hast. Jedes Mal. Wie Groundhog Day, nur dass du derjenige bist, der sich wiederholen muss.
Seit August 2025 ist das Geschichte. Claude hat ein Gedächtnis bekommen – und es funktioniert anders als bei der Konkurrenz.
Was ist Claude Memory?
Claude Memory ist kein einfacher Chat-Verlauf. Es ist ein intelligentes System, das Arbeitskontexte, Präferenzen und Projektdetails persistent über Chat-Grenzen hinweg speichert. Claude erstellt automatisch Zusammenfassungen deiner Gespräche und ruft relevante Informationen beim nächsten Chat ab – ohne dass du etwas erklären musst.
Was sich Claude merkt, umfasst eine breite Palette von Dingen, die du sonst ständig wiederholen würdest: Projektdetails und Anforderungen, bevorzugte Kommunikationsstile, wiederkehrende Aufgaben und Workflows, Code-Präferenzen und Architekturentscheidungen sowie Kundenkontext, der über mehrere Sessions hinweg relevant bleibt. Memory aktualisiert sich im Hintergrund – nicht in Echtzeit, sondern etwa alle 24 Stunden. Wenn du Konversationen löschst, verschwinden auch die daraus abgeleiteten Erinnerungen.
Das Alleinstellungsmerkmal: Projektbasiertes Gedächtnis
Hier unterscheidet sich Claude fundamental von ChatGPT und Gemini. Während andere ein globales Nutzerprofil führen, erstellt Claude für jedes Projekt ein separates Gedächtnis. Deine vertrauliche Kundendiskussion bleibt sauber getrennt von deiner Marketingkampagne. Keine Datenvermischung – eingebaut, ohne extra Konfiguration.
Claude entscheidet dabei selbst, welche Informationen relevant genug sind, um gespeichert zu werden. Der Fokus liegt auf Dingen, die wirklich bestimmen, wie Arbeit erledigt wird: wiederkehrende Prozesse und Workflows, technische Präferenzen wie Programmiersprachen, Frameworks und Tools, Projektspezifikationen und Ziele sowie Team-Strukturen und Verantwortlichkeiten. Persönlicher Smalltalk oder einmalige Fragen landen nicht im Speicher – was Memory schlank und nützlich hält.
Wer kann Memory nutzen? (Stand April 2026)
Das war lange ein bezahltes Feature – das hat sich geändert:
| Plan | Memory | Verfügbar seit |
|---|---|---|
| Claude Free | ✅ Ja | März 2026 |
| Claude Pro | ✅ Ja | Oktober 2025 |
| Claude Max | ✅ Ja | Oktober 2025 |
| Claude Team | ✅ Ja (projektbasiert) | September 2025 |
| Claude Enterprise | ✅ Ja (mit Admin-Kontrolle) | September 2025 |
Wichtig: Seit März 2026 ist Memory from chat history für alle Claude-Nutzer kostenlos verfügbar – auch im Free-Tier.
Aktivierung in 2 Minuten
- Gehe zu claude.ai → Einstellungen → Features
- Aktiviere den Toggle „Search and reference past chats"
- Aktiviere den Toggle „Generate memory from chat history"
- Optional: Lass Claude deine bisherige Chat-Historie analysieren, um sofort zu starten
Du behältst jederzeit volle Kontrolle – Einträge einsehen, bearbeiten oder löschen unter Einstellungen → Capabilities → Memory.
Memory Import/Export: KI-Tool-Wechsel leicht gemacht
Seit März 2026 kostenlos für alle: Du kannst dein Gedächtnis von ChatGPT oder Google Gemini zu Claude übertragen.
So geht's:
- In deinem bisherigen KI-Tool eingeben: „Gib deine Erinnerungen über mich wörtlich wieder, exakt so wie sie gespeichert sind"
- Den exportierten Text in einen neuen Claude-Chat einfügen
- Claude sagen: „Dies ist mein gespeichertes Gedächtnis von einem anderen KI-Assistenten. Bitte füge diese Informationen in dein Gedächtnis über mich ein."
Hinweis: Die Verarbeitung erfolgt einmal täglich – importierte Memories können bis zu 24 Stunden brauchen, bis sie sichtbar sind.
Für Profis: MCP Memory Server installieren
Wer maximale Kontrolle und Flexibilität will, setzt einen eigenen MCP Memory Server auf. Das ist die Lösung, die wir auf automatedweb.net selbst nutzen.
Was ist ein MCP Memory Server?
MCP (Model Context Protocol) ist Anthropics offener Standard, mit dem Claude an externe Tools angebunden werden kann. Ein MCP Memory Server gibt Claude ein strukturiertes, Knowledge-Graph-basiertes Gedächtnis – deutlich mächtiger als die eingebaute Funktion.
Die Vorteile gegenüber dem eingebauten Memory sind substanziell. Allein die Token-Effizienz spricht für sich: 500 Insights kosten normal rund 9.400 Token, während ein MCP-Server dieselben Daten mit nur etwa 460 Token verarbeitet – etwa 20-mal weniger. Dazu kommen kein Datenverlust nach Kontext-Resets, strukturierte Suche im Wissensgraph, Kompatibilität mit Agent-Pipelines wie LangGraph, CrewAI und AutoGen sowie Unterstützung für Claude Desktop, VS Code, Cursor und viele weitere Tools.
Variante 1: Lokal für Claude Desktop
Anforderungen:
- Python 3.10 oder höher
- pip
- Claude Desktop App
Schritt 1: Installieren
pip install claude-memory-mcp
Oder als Ein-Zeilen-Installer:
bash <(curl -s https://raw.githubusercontent.com/maydali28/memcp/main/scripts/install.sh)
Schritt 2: Claude Desktop neu starten – fertig.
Variante 2: Remote MCP für claude.ai (empfohlen)
Damit lässt sich der MCP Memory Server direkt auf claude.ai nutzen – ohne Desktop-App.
Schritt 1: Server installieren
pip install mcp-memory-service
Schritt 2: Server starten
MCP_STREAMABLE_HTTP_MODE=1 \
MCP_SSE_HOST=0.0.0.0 \
MCP_SSE_PORT=8765 \
MCP_OAUTH_ENABLED=true \
python -m mcp_memory_service.server
Schritt 3: Cloudflare Tunnel einrichten
Damit der lokale Server von claude.ai erreichbar ist, braucht es einen öffentlichen HTTPS-Endpunkt:
cloudflared tunnel --url localhost:8765
# → Ausgabe: https://dein-name.trycloudflare.com
Schritt 4: In claude.ai einbinden
- claude.ai → Settings → Connectors → Add Connector
- URL einfügen:
https://dein-name.trycloudflare.com/mcp - OAuth-Flow abschließen
Fertig. Claude hat jetzt Zugriff auf deinen persistenten Memory-Graphen.
Variante 3: Claude Code Auto Memory
Für Entwickler, die Claude Code nutzen – seit März 2026 automatisch aktiv, kein Setup nötig.
Version prüfen:
claude --version
Memory-Dateien liegen unter:
~/.claude/projects/<project>/memory/
├── MEMORY.md # Haupt-Index, wird in jeder Session geladen
├── debugging.md # Debugging-Muster
├── api-conventions.md # API-Entscheidungen
└── ... # Weitere Themendateien
Auto Memory deaktivieren (für sensible Projekte):
export CLAUDE_CODE_DISABLE_AUTO_MEMORY=1
Oder mit /memory innerhalb einer Claude-Code-Session ausschalten.
CLAUDE.md für persistente Instruktionen:
Eine CLAUDE.md-Datei im Projekt-Root erstellen für Kontext, den Claude immer kennen soll:
# Projekt-Kontext
- Framework: Next.js 15
- Coding-Stil: TypeScript strict mode
- Deployment: Vercel
- Wichtig: Kommentare immer auf Englisch
Best Practices
Memory sauber zu halten lohnt den kleinen Aufwand, den es erfordert. Erstelle für jeden Kunden und jedes Projekt einen eigenen Workspace, damit sich Kontexte nicht vermischen. Plane monatliche Reviews, um veraltete Informationen zu löschen – alte Erinnerungen können Claude still in die falsche Richtung lenken, ohne dass du es sofort merkst. Nutze den Incognito-Modus für Experimente und sensible Themen, und prüfe regelmäßig unter Einstellungen → Capabilities → Memory, was gespeichert ist.
Was den Datenschutz betrifft: Speichere nie vertrauliche Kundendaten oder Passwörter in Memory. Nutze für sensible Themen immer den Incognito-Modus. Enterprise-Nutzer können Memory auf Organisationsebene verwalten.
Memory effektiv zu trainieren ist ebenfalls eine Fähigkeit, die sich lohnt zu entwickeln. Korrigiere Claude aktiv, wenn etwas falsch gespeichert wird. Sage Claude explizit, was es sich merken soll: „Merke dir: Ich bevorzuge immer TypeScript" funktioniert besser, als darauf zu hoffen, dass Claude es selbst ableitet. Je präziser du Claude von Anfang an briefst, desto effizienter zahlt sich die Zusammenarbeit über Zeit aus.
Fazit
Claude Memory ist kein Gimmick – es ist ein echter Produktivitäts-Booster. Der projektbasierte Ansatz macht es zur datenschutzfreundlichsten Lösung im KI-Assistent-Markt. Und seit März 2026 ist es für alle Nutzer kostenlos zugänglich – kein Abo nötig.
Wer noch mehr Kontrolle möchte, setzt einen eigenen MCP Memory Server auf und bekommt ein leistungsstarkes Knowledge-Graph-System, das Token spart, zwischen Sessions nichts vergisst und sich in jede denkbare Agent-Pipeline integrieren lässt.
Die Zukunft der KI-gestützten Arbeit hat ein wichtiges Upgrade bekommen. Und du kannst es ab sofort kostenlos nutzen.