Web Analytics

core

⭐ 841 stars German by RedPlanetHQ

🌐 Sprache

CORE-Logo

CORE: Ihre persönliche Gedächtnisschicht für KI-Anwendungen

DeepWiki-Abzeichen

DokumentationDiscord

🔥 Forschungshighlights

CORE Memory erreicht 88,24% durchschnittliche Genauigkeit im Locomo-Datensatz über alle Reasoning-Aufgaben und übertrifft damit andere Speicheranbieter deutlich. Schau dir diesen Blog für weitere Informationen an.

benchmark (1) Single-hop-Fragen erfordern Antworten, die auf einer einzelnen Sitzung basieren; (2) Multi-hop-Fragen erfordern die Synthese von Informationen aus mehreren verschiedenen Sitzungen; (3) Open-Domain-Wissensfragen können beantwortet werden, indem die vom Sprecher bereitgestellten Informationen mit externem Wissen wie Allgemeinwissen oder Weltfakten kombiniert werden; (4) Temporale Reasoning-Fragen können durch zeitliches Schlussfolgern und Erfassung zeitbezogener Datenhinweise innerhalb des Gesprächs beantwortet werden;

Überblick

Problem

Entwickler verschwenden Zeit damit, KI-Tools den Kontext immer wieder neu zu erklären. Token-Limit bei Claude erreicht? Von vorne anfangen und alles verlieren. Wechselst du von ChatGPT/Claude zu Cursor? Erkläre deinen Kontext erneut. Deine Gespräche, Entscheidungen und Erkenntnisse verschwinden zwischen den Sitzungen. Mit jedem neuen KI-Tool steigen die Kosten des Kontextwechsels.

Lösung - CORE (Contextual Observation & Recall Engine)

CORE ist eine quelloffene, einheitliche und persistente Memory-Schicht für all deine KI-Tools. Dein Kontext folgt dir von Cursor zu Claude zu ChatGPT zu Claude Code. Ein Wissensgraph merkt sich, wer was, wann und warum gesagt hat. Einmal verbinden, überall erinnern. Höre auf, Kontext zu verwalten, und fang an zu bauen.

🚀 CORE Selbst-Hosting

Möchtest du CORE auf deiner eigenen Infrastruktur betreiben? Selbst-Hosting gibt dir vollständige Kontrolle über deine Daten und die Bereitstellung.

Voraussetzungen:

> Hinweis zu Open-Source-Modellen: Wir haben OSS-Optionen wie Ollama und GPT-Modelle getestet, aber deren Faktenerkennung und Graphqualität waren unzureichend. Wir suchen aktiv nach Alternativen.

Einrichtung

git clone https://github.com/RedPlanetHQ/core.git
cd core
OPENAI_API_KEY=your_openai_api_key
docker-compose up -d

Nach der Bereitstellung kannst du deine KI-Anbieter (OpenAI, Anthropic) konfigurieren und mit dem Aufbau deines Memory-Graphen beginnen.

👉 Vollständige Self-Hosting-Anleitung ansehen

Hinweis: Wir haben Open-Source-Modelle wie Ollama oder GPT OSS ausprobiert, aber die Faktengenerierung war nicht gut. Wir versuchen weiterhin, dies zu verbessern, und werden dann auch OSS-Modelle unterstützen.

🚀 CORE Cloud

Erstelle deinen einheitlichen Memory-Graph in 5 Minuten:

Du möchtest keine Infrastruktur verwalten? Mit CORE Cloud kannst du dein persönliches Memory-System sofort aufbauen – keine Einrichtung, keine Server, einfach funktionierende Erinnerung.

🧩 Hauptfunktionen

🧠 Vereinheitlichte, tragbare Erinnerung:

Füge deine Erinnerungen hinzu und rufe sie ab über Cursor, Windsurf, Claude Desktop, Claude Code, Gemini CLI, AWS's Kiro, VS Code und Roo Code via MCP

core-claude

🕸️ Temporaler + Reifizierter Wissensgraph:

Erinnere dich an die Geschichte hinter jedem Fakt – verfolge, wer was, wann und warum gesagt hat, mit reichen Beziehungen und vollständiger Herkunft, nicht nur flache Speicherung

core-memory-graph

🌐 Browser-Erweiterung:

Speichere Gespräche und Inhalte von ChatGPT, Grok, Gemini, Twitter, YouTube, Blogposts und jeder Webseite direkt in deinem CORE Memory.

So verwenden Sie die Erweiterung

https://github.com/user-attachments/assets/6e629834-1b9d-4fe6-ae58-a9068986036a

💬 Chatten mit Memory:

Stellen Sie Fragen wie „Was sind meine Schreibpräferenzen?“ und erhalten Sie sofort Einblicke aus Ihrem verbundenen Wissen

chat-with-memory

Automatische Synchronisierung aus Apps:

Erfassen Sie automatisch relevante Kontexte aus Linear, Slack, Notion, GitHub und anderen verbundenen Apps in Ihrem CORE-Speicher

📖 Alle Integrationen anzeigen – Vollständige Liste der unterstützten Dienste und deren Funktionen

core-slack

🔗 MCP-Integrations-Hub:

Verbinden Sie Linear, Slack, GitHub, Notion einmal mit CORE—nutzen Sie dann alle deren Tools in Claude, Cursor oder jedem MCP-Client mit einer einzigen URL

core-linear-claude

Wie CORE Speicher erstellt

memory-ingest-diagram

COREs Ingestion-Pipeline besteht aus vier Phasen, die darauf ausgelegt sind, sich entwickelnde Kontexte zu erfassen:

Das Ergebnis: Statt einer flachen Datenbank bietet CORE ein Gedächtnis, das mit dir wächst und sich verändert – bewahrt Kontext, Entwicklung und Eigentum, sodass Agenten es wirklich nutzen können.

memory-ingest-eg

Wie CORE aus dem Speicher abruft

memory-search-diagram

Wenn du CORE eine Frage stellst, sucht es nicht nur Text – es durchsucht deinen gesamten Wissensgraphen, um die nützlichsten Antworten zu finden.

Das Ergebnis: CORE ruft nicht nur Fakten ab – es ruft sie im richtigen Kontext, zur passenden Zeit und in der Geschichte ab, sodass Agenten so reagieren können, wie du dich erinnern würdest.

Dokumentation

Entdecke unsere Dokumentation, um das Beste aus CORE herauszuholen

🔒 Sicherheit

CORE nimmt Sicherheit ernst. Wir setzen branchenübliche Sicherheitspraktiken ein, um deine Daten zu schützen:

Für detaillierte Sicherheitsinformationen siehe unsere Sicherheitsrichtlinie.

🧑‍💻 Support

Haben Sie Fragen oder Feedback? Wir sind für Sie da:

Nutzungsrichtlinien

Speichern:

Nicht speichern:

👥 Mitwirkende

--- Tranlated By Open Ai Tx | Last indexed: 2025-10-16 ---