🔥 Onderzoek Hoogtepunten
CORE-geheugen behaalt een gemiddelde nauwkeurigheid van 88,24% op de Locomo-dataset over alle redeneertaken en overtreft daarmee aanzienlijk andere geheugenproviders. Bekijk deze blog voor meer informatie.
(1) Single-hop vragen vereisen antwoorden op basis van één sessie; (2) Multi-hop vragen vereisen het synthetiseren van informatie uit meerdere verschillende sessies; (3) Open-domein kennisvragen kunnen worden beantwoord door de informatie van een spreker te combineren met externe kennis zoals gezond verstand of feiten over de wereld; (4) Tijdelijke redeneervragen kunnen worden beantwoord door temporeel redeneren en het vastleggen van tijdsgerelateerde gegevenssignalen binnen het gesprek;
Overzicht
Probleem
Ontwikkelaars verspillen tijd door steeds opnieuw context uit te leggen aan AI-tools. Kom je aan het tokenlimiet bij Claude? Begin opnieuw en alles is weg. Wissel je van ChatGPT/Claude naar Cursor? Leg je context opnieuw uit. Je gesprekken, beslissingen en inzichten verdwijnen tussen sessies. Met elke nieuwe AI-tool nemen de kosten van contextwisselingen toe.
Oplossing - CORE (Contextual Observation & Recall Engine)
CORE is een open-source, uniforme en persistente geheugenlaag voor al je AI-tools. Je context volgt je van Cursor naar Claude, van ChatGPT naar Claude Code. Eén kennisgrafiek onthoudt wie wat zei, wanneer en waarom. Eén keer verbinden, overal onthouden. Stop met het beheren van context en begin met bouwen.
🚀 CORE Zelf-Hosting
Wil je CORE op je eigen infrastructuur draaien? Zelf-hosting geeft je volledige controle over je data en uitrol.Vereisten:
- Docker (20.10.0+) en Docker Compose (2.20.0+) geïnstalleerd
- OpenAI API-sleutel
Installatie
- Clone de repository:
git clone https://github.com/RedPlanetHQ/core.git
cd core
- Configureer omgevingsvariabelen in
core/.env:
OPENAI_API_KEY=your_openai_api_key
- Start de service
docker-compose up -d
Zodra geïmplementeerd, kun je je AI-providers (OpenAI, Anthropic) configureren en beginnen met het bouwen van je geheugen grafiek.👉 Bekijk de volledige self-hosting gids
Opmerking: We hebben open-source modellen zoals Ollama of GPT OSS geprobeerd, maar de feitengeneratie was niet goed. We zoeken nog uit hoe we dit kunnen verbeteren, en zullen dan ook OSS modellen ondersteunen.
🚀 CORE Cloud
Bouw je uniforme geheugen grafiek in 5 minuten:Wil je geen infrastructuur beheren? Met CORE Cloud bouw je direct je persoonlijke geheugensysteem - geen installatie, geen servers, gewoon geheugen dat werkt.
- Meld je aan op core.heysol.ai en maak een account aan
- Visualiseer je geheugen grafiek en zie hoe CORE automatisch verbindingen tussen feiten legt
- Test het uit - vraag "Wat weet je over mij?" in het conversatiegedeelte
- Verbind met je tools:
- Claude & Cursor - coderen met context
- Claude Code CLI & Codex CLI - terminal-based coderen met geheugen
- Browserextensie toevoegen - breng je geheugen naar elke website
- Linear, Github - voeg automatisch projectcontext toe
🧩 Belangrijkste Functies
🧠 Uniform, Draagbaar Geheugen:
Voeg je geheugen toe en haal het op via Cursor, Windsurf, Claude Desktop, Claude Code, Gemini CLI, AWS's Kiro, VS Code en Roo Code via MCP🕸️ Temporele + Gerealiseerde Kennisgrafiek:
Onthoud het verhaal achter elk feit—volg wie wat zei, wanneer en waarom met rijke relaties en volledige herkomst, niet alleen platte opslag
🌐 Browserextensie:
Sla gesprekken en inhoud van ChatGPT, Grok, Gemini, Twitter, YouTube, blogposts en elke webpagina direct op in je CORE-geheugen.
Hoe gebruikt u de extensie
- Download de extensie vanuit de Chrome Web Store.
- Log in op het CORE dashboard
- Navigeer naar Instellingen (linksonder)
- Ga naar API Sleutel → Genereer nieuwe sleutel → Noem deze “extensie.”
- Open de extensie, plak uw API-sleutel en sla op.
💬 Chatten met Geheugen:
Stel vragen zoals "Wat zijn mijn schrijfvoorkeuren?" en krijg direct inzicht uit uw verbonden kennis⚡ Auto-Sync van Apps:
Leg automatisch relevante context vast van Linear, Slack, Notion, GitHub en andere gekoppelde apps in uw CORE-geheugen
📖 Bekijk alle integraties - Volledige lijst van ondersteunde diensten en hun functies
🔗 MCP Integratiehub:
Verbind Linear, Slack, GitHub, Notion eenmaal met CORE—gebruik daarna al hun tools in Claude, Cursor, of elke MCP-client via één enkele URL
Hoe CORE geheugen aanmaakt
Het CORE-verwerkingsproces bestaat uit vier fasen ontworpen om veranderende context vast te leggen:
- Normalisatie: Verbindt nieuwe informatie met recente context, verdeelt lange documenten in samenhangende stukken met behoud van kruisverwijzingen, en standaardiseert termen zodat CORE bij kennisextractie werkt met schone, gecontextualiseerde input in plaats van rommelige tekst.
- Extractie: Haalt betekenis uit genormaliseerde tekst door entiteiten te identificeren (personen, tools, projecten, concepten), ze om te zetten in verklaringen met context, bron en tijd, en relaties te koppelen. Bijvoorbeeld: “We schreven CORE in Next.js” wordt: Entiteiten (Core, Next.js), Verklaring (CORE is ontwikkeld met Next.js), en Relatie (is ontwikkeld met).
- Resolutie: Detecteert tegenstrijdigheden, volgt hoe voorkeuren evolueren, en bewaart meerdere perspectieven met herkomst in plaats van ze te overschrijven zodat het geheugen je volledige traject weerspiegelt, niet alleen de laatste momentopname.
- Grafiekintegratie: Verbindt entiteiten, uitspraken en episodes tot een temporele kennisgrafiek die feiten koppelt aan hun context en geschiedenis, waardoor geïsoleerde data verandert in een levend web van kennis dat agents echt kunnen gebruiken.
Hoe CORE uit het geheugen ophaalt
Wanneer je CORE een vraag stelt, kijkt het niet alleen tekst na – het duikt in je hele kennisgrafiek om de meest bruikbare antwoorden te vinden.
- Zoeken: CORE doorzoekt het geheugen vanuit meerdere invalshoeken tegelijk – trefwoordzoektocht voor exacte overeenkomsten, semantische zoektocht voor gerelateerde ideeën ook als ze anders verwoord zijn, en grafiekdoorloop om links tussen verbonden concepten te volgen.
- Her-rangschikken: De opgehaalde resultaten worden opnieuw gerangschikt om de meest relevante en diverse te benadrukken, zodat je niet alleen de voor de hand liggende overeenkomsten ziet maar ook diepere connecties.
- Filteren: CORE past slimme filters toe op basis van tijd, betrouwbaarheid en sterkte van relaties, zodat alleen de meest betekenisvolle kennis naar boven komt.
- Uitvoer: Je krijgt zowel feiten (duidelijke uitspraken) als episodes (de oorspronkelijke context waaruit ze komen), zodat het geheugen altijd is verankerd in context, tijd en verhaal.
Documentatie
Bekijk onze documentatie om het meeste uit CORE te halen
- Basisconcepten
- Zelf hosten
- Core MCP verbinden met Claude
- Core MCP verbinden met Cursor
- Core MCP verbinden met Claude Code
- Core MCP verbinden met Codex
- Basisconcepten
- API Referentie
🔒 Veiligheid
CORE neemt veiligheid serieus. We hanteren industriestandaard beveiligingspraktijken om je gegevens te beschermen:
- Gegevensversleuteling: Alle gegevens tijdens transport (TLS 1.3) en in rust (AES-256)
- Authenticatie: OAuth 2.0 en magische link-authenticatie
- Toegangscontrole: Werkruimtegebaseerde isolatie en rolgebaseerde permissies
- Kwetsbaarheidsrapportage: Meld beveiligingsproblemen aan harshith@poozle.dev
🧑💻 Ondersteuning
Heb je vragen of feedback? Wij helpen graag:
- Discord: Word lid van het core-support kanaal
- Documentatie: docs.heysol.ai
- E-mail: manik@poozle.dev
Gebruiksrichtlijnen
Opslaan:
- Gespreksgeschiedenis
- Gebruikersvoorkeuren
- Taakcontext
- Referentiemateriaal
- Gevoelige gegevens (PII)
- Inloggegevens
- Systeemlogs
- Tijdelijke data
👥 Bijdragers
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-16 ---