🔥 Forschungshighlights
CORE Memory erreicht 88,24% durchschnittliche Genauigkeit im Locomo-Datensatz über alle Reasoning-Aufgaben und übertrifft damit andere Speicheranbieter deutlich. Schau dir diesen Blog für weitere Informationen an.
(1) Single-hop-Fragen erfordern Antworten, die auf einer einzelnen Sitzung basieren; (2) Multi-hop-Fragen erfordern die Synthese von Informationen aus mehreren verschiedenen Sitzungen; (3) Open-Domain-Wissensfragen können beantwortet werden, indem die vom Sprecher bereitgestellten Informationen mit externem Wissen wie Allgemeinwissen oder Weltfakten kombiniert werden; (4) Temporale Reasoning-Fragen können durch zeitliches Schlussfolgern und Erfassung zeitbezogener Datenhinweise innerhalb des Gesprächs beantwortet werden;
Überblick
Problem
Entwickler verschwenden Zeit damit, KI-Tools den Kontext immer wieder neu zu erklären. Token-Limit bei Claude erreicht? Von vorne anfangen und alles verlieren. Wechselst du von ChatGPT/Claude zu Cursor? Erkläre deinen Kontext erneut. Deine Gespräche, Entscheidungen und Erkenntnisse verschwinden zwischen den Sitzungen. Mit jedem neuen KI-Tool steigen die Kosten des Kontextwechsels.
Lösung - CORE (Contextual Observation & Recall Engine)
CORE ist eine quelloffene, einheitliche und persistente Memory-Schicht für all deine KI-Tools. Dein Kontext folgt dir von Cursor zu Claude zu ChatGPT zu Claude Code. Ein Wissensgraph merkt sich, wer was, wann und warum gesagt hat. Einmal verbinden, überall erinnern. Höre auf, Kontext zu verwalten, und fang an zu bauen.
🚀 CORE Selbst-Hosting
Möchtest du CORE auf deiner eigenen Infrastruktur betreiben? Selbst-Hosting gibt dir vollständige Kontrolle über deine Daten und die Bereitstellung.Voraussetzungen:
- Docker (20.10.0+) und Docker Compose (2.20.0+) installiert
- OpenAI API-Schlüssel
Einrichtung
- Klone das Repository:
git clone https://github.com/RedPlanetHQ/core.git
cd core
- Konfigurieren Sie Umgebungsvariablen in
core/.env:
OPENAI_API_KEY=your_openai_api_key
- Starten Sie den Dienst
docker-compose up -dNach der Bereitstellung kannst du deine KI-Anbieter (OpenAI, Anthropic) konfigurieren und mit dem Aufbau deines Memory-Graphen beginnen.
👉 Vollständige Self-Hosting-Anleitung ansehen
Hinweis: Wir haben Open-Source-Modelle wie Ollama oder GPT OSS ausprobiert, aber die Faktengenerierung war nicht gut. Wir versuchen weiterhin, dies zu verbessern, und werden dann auch OSS-Modelle unterstützen.
🚀 CORE Cloud
Erstelle deinen einheitlichen Memory-Graph in 5 Minuten:Du möchtest keine Infrastruktur verwalten? Mit CORE Cloud kannst du dein persönliches Memory-System sofort aufbauen – keine Einrichtung, keine Server, einfach funktionierende Erinnerung.
- Registriere dich auf core.heysol.ai und erstelle dein Konto
- Visualisiere deinen Memory-Graphen und sieh, wie CORE automatisch Verbindungen zwischen Fakten herstellt
- Teste es aus – frage "Was weißt du über mich?" im Konversationsbereich
- Verbinde deine Tools:
- Claude & Cursor – Programmieren mit Kontext
- Claude Code CLI & Codex CLI – Terminal-basiertes Programmieren mit Memory
- Browser-Erweiterung hinzufügen – bring deine Erinnerung auf jede Webseite
- Linear, Github – Projektkontext automatisch hinzufügen
🧩 Hauptfunktionen
🧠 Vereinheitlichte, tragbare Erinnerung:
Füge deine Erinnerungen hinzu und rufe sie ab über Cursor, Windsurf, Claude Desktop, Claude Code, Gemini CLI, AWS's Kiro, VS Code und Roo Code via MCP🕸️ Temporaler + Reifizierter Wissensgraph:
Erinnere dich an die Geschichte hinter jedem Fakt – verfolge, wer was, wann und warum gesagt hat, mit reichen Beziehungen und vollständiger Herkunft, nicht nur flache Speicherung
🌐 Browser-Erweiterung:
Speichere Gespräche und Inhalte von ChatGPT, Grok, Gemini, Twitter, YouTube, Blogposts und jeder Webseite direkt in deinem CORE Memory.
So verwenden Sie die Erweiterung
- Laden Sie die Erweiterung herunter aus dem Chrome Web Store.
- Melden Sie sich beim CORE-Dashboard an
- Navigieren Sie zu Einstellungen (unten links)
- Gehen Sie zu API-Schlüssel → Neuen Schlüssel generieren → Benennen Sie ihn „extension“.
- Öffnen Sie die Erweiterung, fügen Sie Ihren API-Schlüssel ein und speichern Sie ihn.
💬 Chatten mit Memory:
Stellen Sie Fragen wie „Was sind meine Schreibpräferenzen?“ und erhalten Sie sofort Einblicke aus Ihrem verbundenen Wissen⚡ Automatische Synchronisierung aus Apps:
Erfassen Sie automatisch relevante Kontexte aus Linear, Slack, Notion, GitHub und anderen verbundenen Apps in Ihrem CORE-Speicher
📖 Alle Integrationen anzeigen – Vollständige Liste der unterstützten Dienste und deren Funktionen
🔗 MCP-Integrations-Hub:
Verbinden Sie Linear, Slack, GitHub, Notion einmal mit CORE—nutzen Sie dann alle deren Tools in Claude, Cursor oder jedem MCP-Client mit einer einzigen URL
Wie CORE Speicher erstellt
COREs Ingestion-Pipeline besteht aus vier Phasen, die darauf ausgelegt sind, sich entwickelnde Kontexte zu erfassen:
- Normalisierung: Verknüpft neue Informationen mit dem aktuellen Kontext, zerlegt lange Dokumente in kohärente Abschnitte und hält Querverweise bei, standardisiert Begriffe, sodass CORE beim Extrahieren von Wissen mit sauberem, kontextualisiertem Input arbeitet statt mit chaotischem Text.
- Extraktion: Zieht Bedeutung aus normalisiertem Text, indem es Entitäten (Personen, Werkzeuge, Projekte, Konzepte) identifiziert, sie in Aussagen mit Kontext, Quelle und Zeit verwandelt und Beziehungen abbildet. Zum Beispiel wird „Wir haben CORE in Next.js geschrieben“ zu: Entitäten (Core, Next.js), Aussage (CORE wurde mit Next.js entwickelt), und Beziehung (wurde entwickelt mit).
- Auflösung: Erkennt Widersprüche, verfolgt, wie sich Präferenzen entwickeln, und bewahrt mehrere Perspektiven samt Herkunft, statt sie zu überschreiben, damit der Speicher deine gesamte Reise widerspiegelt und nicht nur den letzten Stand.
- Graph-Integration: Verbindet Entitäten, Aussagen und Episoden in einem zeitlichen Wissensgraphen, der Fakten mit ihrem Kontext und ihrer Historie verknüpft und so isolierte Daten in ein lebendiges Wissensnetz verwandelt, das Agenten tatsächlich nutzen können.
Wie CORE aus dem Speicher abruft
Wenn du CORE eine Frage stellst, sucht es nicht nur Text – es durchsucht deinen gesamten Wissensgraphen, um die nützlichsten Antworten zu finden.
- Suche: CORE durchsucht den Speicher gleichzeitig aus verschiedenen Perspektiven – Stichwortsuche für exakte Übereinstimmungen, semantische Suche für verwandte Ideen, auch wenn sie anders formuliert sind, und Graph-Durchlauf, um Verbindungen zwischen Konzepten zu verfolgen.
- Neu-Rangierung: Die gefundenen Ergebnisse werden neu sortiert, um die relevantesten und vielfältigsten hervorzuheben, damit du nicht nur offensichtliche Treffer siehst, sondern auch tiefere Zusammenhänge.
- Filterung: CORE setzt intelligente Filter ein, basierend auf Zeit, Zuverlässigkeit und Beziehungsstärke, sodass nur das bedeutsamste Wissen angezeigt wird.
- Ausgabe: Du erhältst sowohl Fakten (klare Aussagen) als auch Episoden (den ursprünglichen Kontext), sodass der Abruf immer im Zusammenhang von Kontext, Zeit und Geschichte steht.
Dokumentation
Entdecke unsere Dokumentation, um das Beste aus CORE herauszuholen
- Grundlagen
- Self Hosting
- Core MCP mit Claude verbinden
- Core MCP mit Cursor verbinden
- Core MCP mit Claude Code verbinden
- Core MCP mit Codex verbinden
- Grundlagen
- API Referenz
🔒 Sicherheit
CORE nimmt Sicherheit ernst. Wir setzen branchenübliche Sicherheitspraktiken ein, um deine Daten zu schützen:
- Datenverschlüsselung: Alle Daten während der Übertragung (TLS 1.3) und im Ruhezustand (AES-256)
- Authentifizierung: OAuth 2.0 und Magic-Link-Authentifizierung
- Zugriffskontrolle: Arbeitsbereich-basierte Isolierung und rollenbasierte Berechtigungen
- Schwachstellenmeldung: Bitte melden Sie Sicherheitsprobleme an harshith@poozle.dev
🧑💻 Support
Haben Sie Fragen oder Feedback? Wir sind für Sie da:
- Discord: Treten Sie dem core-support Kanal bei
- Dokumentation: docs.heysol.ai
- E-Mail: manik@poozle.dev
Nutzungsrichtlinien
Speichern:
- Gesprächsverlauf
- Benutzereinstellungen
- Aufgaben-Kontext
- Referenzmaterialien
- Sensible Daten (PII)
- Zugangsdaten
- Systemprotokolle
- Temporäre Daten
👥 Mitwirkende
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-16 ---