🔥 Points forts de la recherche
La mémoire CORE atteint une précision moyenne de 88,24% sur le jeu de données Locomo pour toutes les tâches de raisonnement, dépassant nettement les autres fournisseurs de mémoire. Consultez ce blog pour plus d’informations.
(1) Les questions à un seul saut nécessitent des réponses basées sur une seule session ; (2) Les questions à plusieurs sauts exigent de synthétiser des informations provenant de plusieurs sessions différentes ; (3) Les questions de connaissances en domaine ouvert peuvent être résolues en intégrant les informations fournies par l’intervenant avec des connaissances externes telles que le bon sens ou des faits mondiaux ; (4) Les questions de raisonnement temporel peuvent être résolues grâce au raisonnement temporel et à la capture d’indices liés au temps dans la conversation ;
Aperçu
Problème
Les développeurs perdent du temps à réexpliquer le contexte aux outils d’IA. Atteignez-vous la limite de jetons sur Claude ? Vous recommencez et perdez tout. Passez de ChatGPT/Claude à Cursor ? Expliquez à nouveau votre contexte. Vos conversations, décisions et idées disparaissent entre les sessions. À chaque nouvel outil d’IA, le coût du changement de contexte augmente.
Solution - CORE (Contextual Observation & Recall Engine)
CORE est une couche mémoire unifiée, persistante et open-source pour tous vos outils d’IA. Votre contexte vous suit de Cursor à Claude, de ChatGPT à Claude Code. Un seul graphe de connaissances retient qui a dit quoi, quand et pourquoi. Connectez-vous une fois, souvenez-vous partout. Arrêtez de gérer le contexte, commencez à construire.
🚀 Auto-hébergement de CORE
Vous souhaitez exécuter CORE sur votre propre infrastructure ? L’auto-hébergement vous donne un contrôle total sur vos données et votre déploiement.Prérequis :
- Docker (20.10.0+) et Docker Compose (2.20.0+) installés
- Clé API OpenAI
Installation
- Clonez le dépôt :
git clone https://github.com/RedPlanetHQ/core.git
cd core
- Configurez les variables d'environnement dans
core/.env:
OPENAI_API_KEY=your_openai_api_key
- Démarrer le service
docker-compose up -dUne fois déployé, vous pouvez configurer vos fournisseurs d’IA (OpenAI, Anthropic) et commencer à construire votre graphe de mémoire.
👉 Voir le guide complet d’auto-hébergement
Remarque : Nous avons essayé des modèles open-source comme Ollama ou GPT OSS mais la génération de faits n’était pas satisfaisante, nous cherchons encore comment améliorer cela et nous prendrons en charge les modèles OSS par la suite.
🚀 CORE Cloud
Construisez votre graphe de mémoire unifié en 5 minutes :Vous ne voulez pas gérer l’infrastructure ? CORE Cloud vous permet de créer instantanément votre système de mémoire personnel - pas d’installation, pas de serveurs, juste une mémoire qui fonctionne.
- Inscrivez-vous sur core.heysol.ai et créez votre compte
- Visualisez votre graphe de mémoire et voyez comment CORE établit automatiquement des connexions entre les faits
- Testez-le - demandez « Que sais-tu de moi ? » dans la section conversation
- Connectez-vous à vos outils :
- Claude & Cursor - coder avec du contexte
- Claude Code CLI & Codex CLI - programmation en terminal avec mémoire
- Ajouter l’extension de navigateur - apportez votre mémoire sur n’importe quel site web
- Linear, Github - ajoutez automatiquement le contexte de vos projets
🧩 Fonctionnalités clés
🧠 Mémoire Unifiée et Portable :
Ajoutez et rappelez votre mémoire sur Cursor, Windsurf, Claude Desktop, Claude Code, Gemini CLI, AWS Kiro, VS Code et Roo Code via MCP🕸️ Graphe de Connaissance Temporel + Réifié :
Retenez l’histoire derrière chaque fait—suivez qui a dit quoi, quand et pourquoi avec des relations riches et une provenance complète, pas juste un stockage plat
🌐 Extension de Navigateur :
Sauvegardez conversations et contenus de ChatGPT, Grok, Gemini, Twitter, YouTube, articles de blogs et toute page web directement dans votre mémoire CORE.
Comment utiliser l’extension
- Téléchargez l’extension depuis le Chrome Web Store.
- Connectez-vous au tableau de bord CORE
- Allez dans Paramètres (en bas à gauche)
- Rendez-vous sur Clé API → Générer une nouvelle clé → Nommez-la “extension.”
- Ouvrez l’extension, collez votre clé API et sauvegardez.
💬 Discuter avec la mémoire :
Posez des questions comme « Quelles sont mes préférences d’écriture ? » et obtenez des informations instantanées depuis vos connaissances connectées
⚡ Synchronisation automatique depuis les applications :
Capturez automatiquement le contexte pertinent depuis Linear, Slack, Notion, GitHub et d’autres applications connectées dans votre mémoire CORE
📖 Voir toutes les intégrations – Liste complète des services pris en charge et de leurs fonctionnalités
🔗 Hub d’intégration MCP :
Connectez Linear, Slack, GitHub, Notion une seule fois à CORE—puis utilisez tous leurs outils dans Claude, Cursor ou tout client MCP via une seule URL
Comment CORE crée la mémoire
Le pipeline d’ingestion de CORE comporte quatre phases conçues pour capturer le contexte évolutif :
- Normalisation : Relie les nouvelles informations au contexte récent, divise les longs documents en segments cohérents tout en conservant les références croisées, et standardise les termes afin que, lorsque CORE extrait la connaissance, il travaille avec un contenu propre et contextualisé plutôt qu’avec du texte désordonné.
- Extraction : Tire le sens du texte normalisé en identifiant les entités (personnes, outils, projets, concepts), les transformant en déclarations avec contexte, source et date, et en cartographiant les relations. Par exemple, « Nous avons écrit CORE en Next.js » devient : Entités (Core, Next.js), Déclaration (CORE a été développé avec Next.js), et Relation (a été développé avec).
- Résolution : Détecte les contradictions, suit l’évolution des préférences, et préserve plusieurs points de vue avec provenance au lieu de les écraser, afin que la mémoire reflète l’ensemble de votre parcours et non seulement la dernière version.
- Intégration au graphe : Relie les entités, déclarations et épisodes dans un graphe de connaissance temporel qui associe les faits à leur contexte et leur histoire, transformant des données isolées en un réseau vivant que les agents peuvent réellement exploiter.
Comment CORE retrouve la mémoire
Lorsque vous posez une question à CORE, il ne se contente pas de rechercher du texte – il explore l’ensemble de votre graphe de connaissance pour trouver les réponses les plus utiles.
- Recherche : CORE parcourt la mémoire sous plusieurs angles à la fois – recherche par mots-clés pour les correspondances exactes, recherche sémantique pour les idées associées même si elles sont formulées différemment, et exploration du graphe pour suivre les liens entre concepts connectés.
- Reclassement : Les résultats récupérés sont réordonnés pour mettre en avant les plus pertinents et diversifiés, afin que vous ne voyiez pas seulement les correspondances évidentes mais aussi des liens plus profonds.
- Filtrage : CORE applique des filtres intelligents basés sur le temps, la fiabilité et la force des relations, afin que seules les connaissances les plus significatives soient mises en avant.
- Sortie : Vous récupérez à la fois des faits (déclarations claires) et des épisodes (le contexte original dont ils proviennent), pour que le rappel soit toujours ancré dans le contexte, le temps et l’histoire.
Documentation
Explorez notre documentation pour tirer le meilleur parti de CORE
- Concepts de base
- Auto-hébergement
- Connecter Core MCP à Claude
- Connecter Core MCP à Cursor
- Connecter Core MCP à Claude Code
- Connecter Core MCP à Codex
- Concepts de base
- Référence API
🔒 Sécurité
CORE prend la sécurité très au sérieux. Nous mettons en œuvre des pratiques de sécurité de pointe pour protéger vos données :
- Chiffrement des données : Toutes les données en transit (TLS 1.3) et au repos (AES-256)
- Authentification : OAuth 2.0 et authentification par lien magique
- Contrôle d’accès : Isolation basée sur l’espace de travail et permissions basées sur les rôles
- Signalement de vulnérabilités : Veuillez signaler les problèmes de sécurité à harshith@poozle.dev
🧑💻 Support
Des questions ou des retours ? Nous sommes là pour vous aider :
- Discord : Rejoindre le canal core-support
- Documentation : docs.heysol.ai
- Email : manik@poozle.dev
Directives d’utilisation
À conserver :
- Historique des conversations
- Préférences utilisateur
- Contexte de la tâche
- Matériaux de référence
- Données sensibles (PII)
- Identifiants
- Journaux système
- Données temporaires
👥 Contributeurs
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-16 ---