🔥 शोध मुख्य बिंदु
CORE मेमोरी ने Locomo डेटासेट में सभी रीजनिंग कार्यों में औसतन 88.24% सटीकता प्राप्त की है, जो अन्य मेमोरी प्रदाताओं से कहीं बेहतर है। अधिक जानकारी के लिए इस ब्लॉग को देखें।
(1) सिंगल-हॉप प्रश्नों के उत्तर एक सत्र पर आधारित होते हैं; (2) मल्टी-हॉप प्रश्नों के उत्तर कई अलग-अलग सत्रों से जानकारी जोड़ने पर आधारित होते हैं; (3) ओपन-डोमेन ज्ञान प्रश्न वक्ता द्वारा दी गई जानकारी को बाहरी ज्ञान जैसे सामान्य समझ या विश्व तथ्यों के साथ जोड़कर उत्तर दिए जा सकते हैं; (4) टेम्पोरल रीजनिंग प्रश्नों के उत्तर बातचीत में समय-संबंधी डेटा संकेतों को पकड़कर और टेम्पोरल रीजनिंग द्वारा दिए जा सकते हैं;
अवलोकन
समस्या
डेवलपर्स AI टूल्स को बार-बार संदर्भ समझाने में समय बर्बाद करते हैं। Claude में टोकन सीमा पार हो गई? फिर से शुरू करो और सब कुछ खो दो। ChatGPT/Claude से Cursor में स्विच करो? फिर से अपना संदर्भ समझाओ। आपकी बातचीत, निर्णय और अंतर्दृष्टि सत्रों के बीच गायब हो जाती हैं। हर नए AI टूल के साथ संदर्भ बदलने की लागत बढ़ती जाती है।
समाधान - CORE (Contextual Observation & Recall Engine)
CORE आपके सभी AI टूल्स के लिए एक ओपन-सोर्स, एकीकृत, स्थायी मेमोरी लेयर है। आपका संदर्भ Cursor से Claude से ChatGPT से Claude Code तक आपके साथ रहता है। एक नॉलेज ग्राफ याद रखता है कि किसने क्या, कब और क्यों कहा। एक बार कनेक्ट करें, हर जगह याद रखें। संदर्भ प्रबंधन बंद करें और निर्माण शुरू करें।
🚀 CORE सेल्फ-होस्टिंग
क्या आप CORE को अपनी खुद की इंफ्रास्ट्रक्चर पर चलाना चाहते हैं? सेल्फ-होस्टिंग आपको आपके डेटा और डिप्लॉयमेंट पर पूरी तरह नियंत्रण देता है।पूर्व आवश्यकताएँ:
- Docker (20.10.0+) और Docker Compose (2.20.0+) इंस्टॉल हो
- OpenAI API कुंजी
सेटअप
- रिपॉजिटरी क्लोन करें:
git clone https://github.com/RedPlanetHQ/core.git
cd core
core/.envमें पर्यावरण चर कॉन्फ़िगर करें:
OPENAI_API_KEY=your_openai_api_key
- सेवा प्रारंभ करें
docker-compose up -d
एक बार डिप्लॉय हो जाने के बाद, आप अपने AI प्रदाताओं (OpenAI, Anthropic) को कॉन्फ़िगर कर सकते हैं और अपनी मेमोरी ग्राफ बनाना शुरू कर सकते हैं।👉 पूरा सेल्फ-होस्टिंग गाइड देखें
नोट: हमने ओपन-सोर्स मॉडल जैसे Ollama या GPT OSS को आज़माया, लेकिन तथ्यों की जनरेशन अच्छी नहीं थी, हम अभी भी इसमें सुधार करने का तरीका ढूंढ रहे हैं और फिर OSS मॉडल का भी समर्थन करेंगे।
🚀 CORE क्लाउड
अपना एकीकृत मेमोरी ग्राफ 5 मिनट में बनाएं:क्या आप इन्फ्रास्ट्रक्चर मैनेज नहीं करना चाहते? CORE क्लाउड आपको तुरंत अपना व्यक्तिगत मेमोरी सिस्टम बनाने देता है - कोई सेटअप नहीं, कोई सर्वर नहीं, बस काम करने वाली मेमोरी।
- core.heysol.ai पर साइन अप करें और अपना अकाउंट बनाएं
- अपना मेमोरी ग्राफ विज़ुअलाइज़ करें और देखें कि CORE ऑटोमेटिकली तथ्यों के बीच कनेक्शन कैसे बनाता है
- इसे आज़माएं - बातचीत सेक्शन में पूछें "तुम मेरे बारे में क्या जानते हो?"
- अपने टूल्स से कनेक्ट करें:
- Claude और Cursor - कॉन्टेक्स्ट के साथ कोडिंग
- CLaude Code CLI और Codex CLI - मेमोरी के साथ टर्मिनल-बेस्ड कोडिंग
- ब्राउज़र एक्सटेंशन जोड़ें - अपनी मेमोरी किसी भी वेबसाइट पर लाएं
- Linear, Github - प्रोजेक्ट कॉन्टेक्स्ट ऑटोमेटिकली जोड़ें
🧩 मुख्य विशेषताएँ
🧠 एकीकृत, पोर्टेबल मेमोरी:
अपनी मेमोरी को Cursor, Windsurf, Claude Desktop, Claude Code, Gemini CLI, AWS का Kiro, VS Code, और Roo Code में MCP के माध्यम से जोड़ें और याद करें🕸️ टेम्पोरल + रीफाइड नॉलेज ग्राफ:
हर तथ्य के पीछे की कहानी याद रखें—कौन, कब और क्यों कहा, समृद्ध संबंधों और पूरी प्रोवेनेंस के साथ ट्रैक करें, सिर्फ फ्लैट स्टोरेज नहीं
🌐 ब्राउज़र एक्सटेंशन:
ChatGPT, Grok, Gemini, Twitter, YouTube, ब्लॉग पोस्ट्स, और किसी भी वेबपेज से बातचीत और कंटेंट को सीधे अपने CORE मेमोरी में सेव करें।
एक्सटेंशन का उपयोग कैसे करें
- एक्सटेंशन डाउनलोड करें क्रोम वेब स्टोर से।
- CORE डैशबोर्ड में लॉगिन करें
- सेटिंग्स पर जाएं (नीचे बाईं ओर)
- API Key → नया की जनरेट करें → इसे “extension” नाम दें।
- एक्सटेंशन खोलें, अपना API key पेस्ट करें, और सेव करें।
💬 मेमोरी के साथ चैट:
ऐसे सवाल पूछें जैसे "मेरी लेखन प्राथमिकताएँ क्या हैं?" और अपनी कनेक्टेड नॉलेज से तुरंत जानकारी प्राप्त करें⚡ ऐप्स से ऑटो-सिंक:
Linear, Slack, Notion, GitHub और अन्य कनेक्टेड ऐप्स से प्रासंगिक संदर्भ स्वतः आपके CORE मेमोरी में कैप्चर करें
📖 सभी इंटीग्रेशन देखें - समर्थित सेवाओं और उनकी सुविधाओं की पूरी सूची
🔗 MCP इंटीग्रेशन हब:
Linear, Slack, GitHub, Notion को एक बार CORE से कनेक्ट करें—फिर Claude, Cursor या किसी भी MCP क्लाइंट में इन सभी टूल्स को एक ही URL से इस्तेमाल करें
CORE मेमोरी कैसे बनाता है
CORE का इन्जेशन पाइपलाइन चार चरणों में बदलते संदर्भ को कैप्चर करने के लिए डिज़ाइन किया गया है:
- सामान्यीकरण (Normalization): नई जानकारी को हाल के संदर्भ से जोड़ता है, लंबे दस्तावेज़ों को सुसंगत हिस्सों में विभाजित करता है जिसमें क्रॉस-रेफरेंस बरकरार रहते हैं, और शब्दों का मानकीकरण करता है ताकि जब CORE ज्ञान निकालता है, तो वह गंदे पाठ के बजाय साफ़, संदर्भित इनपुट के साथ काम कर रहा हो।
- निर्गमन (Extraction): सामान्यीकृत पाठ से अर्थ निकालता है, संस्थाओं (लोग, उपकरण, परियोजनाएँ, अवधारणाएँ) की पहचान करता है, उन्हें संदर्भ, स्रोत और समय के साथ कथनों में बदलता है, और संबंधों का मानचित्रण करता है। उदाहरण के लिए, “हमने CORE को Next.js में लिखा” बनता है: संस्थाएँ (CORE, Next.js), कथन (CORE को Next.js का उपयोग कर विकसित किया गया), और संबंध (विकसित किया गया था)।
- संकल्प (Resolution): विरोधाभासों का पता लगाता है, कैसे प्राथमिकताएँ विकसित होती हैं उसे ट्रैक करता है, और स्रोत के साथ कई दृष्टिकोणों को संरक्षित करता है ताकि स्मृति आपकी पूरी यात्रा को दर्शाती रहे, न कि केवल नवीनतम स्नैपशॉट।
- ग्राफ एकीकरण (Graph Integration): संस्थाओं, कथनों, और एपिसोड्स को एक कालिक ज्ञान ग्राफ में जोड़ता है जो तथ्यों को उनके संदर्भ और इतिहास से जोड़ता है, अलग-अलग डेटा को एक जीवंत वेब ऑफ नॉलेज एजेंट्स में बदलता है जिसे वास्तव में इस्तेमाल किया जा सकता है।
CORE स्मृति से कैसे पुनःस्मरण करता है
जब आप CORE से कोई प्रश्न पूछते हैं, तो यह केवल पाठ नहीं खोजता - बल्कि आपके पूरे ज्ञान ग्राफ में गहराई से जाकर सबसे उपयोगी उत्तर खोजता है।
- खोज (Search): CORE स्मृति में एक साथ कई कोणों से खोज करता है - बिल्कुल मिलान के लिए कीवर्ड खोज, संबंधित विचारों के लिए सैमान्तिक खोज चाहे वे अलग तरह से व्यक्त किए गए हों, और ग्राफ ट्रैवर्सल ताकि जुड़े हुए अवधारणाओं के बीच लिंक का अनुसरण किया जा सके।
- पुनः-क्रम (Re-Rank): प्राप्त परिणामों को फिर से क्रमबद्ध किया जाता है ताकि सबसे प्रासंगिक और विविध परिणाम सामने आएँ, जिससे आप केवल स्पष्ट मेल ही नहीं बल्कि गहरे संबंध भी देख सकें।
- फ़िल्टरिंग (Filtering): CORE समय, विश्वसनीयता, और संबंध की मजबूती के आधार पर स्मार्ट फ़िल्टर लागू करता है, ताकि केवल सबसे अर्थपूर्ण ज्ञान ही सामने आए।
- आउटपुट (Output): आपको तथ्यों (स्पष्ट कथन) और एपिसोड्स (मूल संदर्भ जिससे वे आए हैं) दोनों मिलते हैं, ताकि पुनःस्मरण हमेशा संदर्भ, समय और कहानी से जुड़ा रहे।
दस्तावेज़ीकरण
CORE का अधिकतम लाभ उठाने के लिए हमारे दस्तावेज़ को एक्सप्लोर करें
- मूल अवधारणाएँ
- सेल्फ होस्टिंग
- Core MCP को Claude से जोड़ें
- Core MCP को Cursor से जोड़ें
- Core MCP को Claude Code से जोड़ें
- Core MCP को Codex से जोड़ें
- मूल अवधारणाएँ
- API संदर्भ
🔒 सुरक्षा
CORE सुरक्षा को गंभीरता से लेता है। हम आपके डेटा की सुरक्षा के लिए उद्योग-मानक सुरक्षा प्रथाएँ लागू करते हैं:
- डेटा एनक्रिप्शन: सभी डेटा ट्रांज़िट में (TLS 1.3) और रेस्ट में (AES-256)
- प्रमाणीकरण: OAuth 2.0 और मैजिक लिंक प्रमाणीकरण
- एक्सेस कंट्रोल: कार्यक्षेत्र-आधारित पृथक्करण और भूमिका-आधारित अनुमतियाँ
- कमजोरी रिपोर्टिंग: कृपया सुरक्षा संबंधित मुद्दे harshith@poozle.dev पर रिपोर्ट करें
🧑💻 सहायता
क्या आपके पास कोई सवाल या सुझाव है? हम आपकी सहायता के लिए उपलब्ध हैं:
- डिस्कॉर्ड: core-support चैनल जॉइन करें
- दस्तावेज़: docs.heysol.ai
- ईमेल: manik@poozle.dev
उपयोग दिशानिर्देश
संग्रहित करें:
- बातचीत का इतिहास
- उपयोगकर्ता प्राथमिकताएँ
- कार्य संदर्भ
- संदर्भ सामग्री
- संवेदनशील डेटा (PII)
- क्रेडेंशियल्स
- सिस्टम लॉग्स
- अस्थायी डेटा
👥 योगदानकर्ता
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-16 ---