Web Analytics

core

⭐ 841 stars French by RedPlanetHQ

🌐 Langue

Logo CORE

CORE : Votre couche mémoire personnelle pour les applications IA

Badge DeepWiki

DocumentationDiscord

🔥 Points forts de la recherche

La mémoire CORE atteint une précision moyenne de 88,24% sur le jeu de données Locomo pour toutes les tâches de raisonnement, dépassant nettement les autres fournisseurs de mémoire. Consultez ce blog pour plus d’informations.

benchmark (1) Les questions à un seul saut nécessitent des réponses basées sur une seule session ; (2) Les questions à plusieurs sauts exigent de synthétiser des informations provenant de plusieurs sessions différentes ; (3) Les questions de connaissances en domaine ouvert peuvent être résolues en intégrant les informations fournies par l’intervenant avec des connaissances externes telles que le bon sens ou des faits mondiaux ; (4) Les questions de raisonnement temporel peuvent être résolues grâce au raisonnement temporel et à la capture d’indices liés au temps dans la conversation ;

Aperçu

Problème

Les développeurs perdent du temps à réexpliquer le contexte aux outils d’IA. Atteignez-vous la limite de jetons sur Claude ? Vous recommencez et perdez tout. Passez de ChatGPT/Claude à Cursor ? Expliquez à nouveau votre contexte. Vos conversations, décisions et idées disparaissent entre les sessions. À chaque nouvel outil d’IA, le coût du changement de contexte augmente.

Solution - CORE (Contextual Observation & Recall Engine)

CORE est une couche mémoire unifiée, persistante et open-source pour tous vos outils d’IA. Votre contexte vous suit de Cursor à Claude, de ChatGPT à Claude Code. Un seul graphe de connaissances retient qui a dit quoi, quand et pourquoi. Connectez-vous une fois, souvenez-vous partout. Arrêtez de gérer le contexte, commencez à construire.

🚀 Auto-hébergement de CORE

Vous souhaitez exécuter CORE sur votre propre infrastructure ? L’auto-hébergement vous donne un contrôle total sur vos données et votre déploiement.

Prérequis :

> Remarque sur les modèles open-source : Nous avons testé des options OSS comme Ollama et les modèles GPT, mais leur extraction de faits et la qualité du graphe étaient insuffisantes. Nous recherchons activement d’autres options.

Installation

git clone https://github.com/RedPlanetHQ/core.git
cd core
OPENAI_API_KEY=your_openai_api_key
docker-compose up -d

Une fois déployé, vous pouvez configurer vos fournisseurs d’IA (OpenAI, Anthropic) et commencer à construire votre graphe de mémoire.

👉 Voir le guide complet d’auto-hébergement

Remarque : Nous avons essayé des modèles open-source comme Ollama ou GPT OSS mais la génération de faits n’était pas satisfaisante, nous cherchons encore comment améliorer cela et nous prendrons en charge les modèles OSS par la suite.

🚀 CORE Cloud

Construisez votre graphe de mémoire unifié en 5 minutes :

Vous ne voulez pas gérer l’infrastructure ? CORE Cloud vous permet de créer instantanément votre système de mémoire personnel - pas d’installation, pas de serveurs, juste une mémoire qui fonctionne.

🧩 Fonctionnalités clés

🧠 Mémoire Unifiée et Portable :

Ajoutez et rappelez votre mémoire sur Cursor, Windsurf, Claude Desktop, Claude Code, Gemini CLI, AWS Kiro, VS Code et Roo Code via MCP

core-claude

🕸️ Graphe de Connaissance Temporel + Réifié :

Retenez l’histoire derrière chaque fait—suivez qui a dit quoi, quand et pourquoi avec des relations riches et une provenance complète, pas juste un stockage plat

core-memory-graph

🌐 Extension de Navigateur :

Sauvegardez conversations et contenus de ChatGPT, Grok, Gemini, Twitter, YouTube, articles de blogs et toute page web directement dans votre mémoire CORE.

Comment utiliser l’extension

https://github.com/user-attachments/assets/6e629834-1b9d-4fe6-ae58-a9068986036a

💬 Discuter avec la mémoire :

Posez des questions comme « Quelles sont mes préférences d’écriture ? » et obtenez des informations instantanées depuis vos connaissances connectées

chat-with-memory

Synchronisation automatique depuis les applications :

Capturez automatiquement le contexte pertinent depuis Linear, Slack, Notion, GitHub et d’autres applications connectées dans votre mémoire CORE

📖 Voir toutes les intégrations – Liste complète des services pris en charge et de leurs fonctionnalités

core-slack

🔗 Hub d’intégration MCP :

Connectez Linear, Slack, GitHub, Notion une seule fois à CORE—puis utilisez tous leurs outils dans Claude, Cursor ou tout client MCP via une seule URL

core-linear-claude

Comment CORE crée la mémoire

memory-ingest-diagram

Le pipeline d’ingestion de CORE comporte quatre phases conçues pour capturer le contexte évolutif :

Le résultat : Au lieu d’une base de données plate, CORE vous offre une mémoire qui évolue avec vous – préservant le contexte, l’évolution et la propriété afin que les agents puissent vraiment l’utiliser.

memory-ingest-eg

Comment CORE retrouve la mémoire

memory-search-diagram

Lorsque vous posez une question à CORE, il ne se contente pas de rechercher du texte – il explore l’ensemble de votre graphe de connaissance pour trouver les réponses les plus utiles.

Le résultat : CORE ne se contente pas de rappeler des faits – il les restitue dans le bon contexte, au bon moment et avec l’histoire, pour que les agents répondent comme vous vous en souviendriez.

Documentation

Explorez notre documentation pour tirer le meilleur parti de CORE

🔒 Sécurité

CORE prend la sécurité très au sérieux. Nous mettons en œuvre des pratiques de sécurité de pointe pour protéger vos données :

Pour des informations de sécurité détaillées, consultez notre Politique de sécurité.

🧑‍💻 Support

Des questions ou des retours ? Nous sommes là pour vous aider :

Directives d’utilisation

À conserver :

À ne pas conserver :

👥 Contributeurs

--- Tranlated By Open Ai Tx | Last indexed: 2025-10-16 ---