🔥 Основные результаты исследований
Память CORE достигает 88.24% средней точности на датасете Locomo по всем задачам рассуждения, значительно превосходя другие поставщики памяти. Подробнее читайте в этом блоге.
(1) Вопросы с одним переходом требуют ответа на основе одной сессии; (2) Многопереходные вопросы требуют синтеза информации из нескольких разных сессий; (3) Вопросы по знаниям открытого домена могут быть решены интеграцией предоставленной спикером информации с внешними знаниями, такими как здравый смысл или факты о мире; (4) Временные вопросы требуют рассуждений по времени и фиксации временных данных внутри разговора;
Обзор
Проблема
Разработчики теряют время, вновь объясняя контекст ИИ-инструментам. Достигли лимита токенов в Claude? Начинайте заново и теряете всё. Перешли с ChatGPT/Claude на Cursor? Опять объясняете контекст. Ваши разговоры, решения и идеи исчезают между сессиями. С каждым новым ИИ-инструментом стоимость переключения контекста растёт.
Решение - CORE (Contextual Observation & Recall Engine)
CORE — это открытый и единый слой постоянной памяти для всех ваших ИИ-инструментов. Ваш контекст переходит с Cursor на Claude, с ChatGPT на Claude Code. Одна база знаний запоминает, кто что сказал, когда и почему. Подключитесь один раз — помните везде. Перестаньте управлять контекстом и начните создавать.
🚀 Самостоятельный хостинг CORE
Хотите запустить CORE на собственной инфраструктуре? Самостоятельный хостинг даёт вам полный контроль над данными и развертыванием.Требования:
- Установлены Docker (20.10.0+) и Docker Compose (2.20.0+)
- Ключ OpenAI API
Установка
- Клонируйте репозиторий:
git clone https://github.com/RedPlanetHQ/core.git
cd core
- Настройте переменные окружения в
core/.env:
OPENAI_API_KEY=your_openai_api_key
- Запустите службу
docker-compose up -d
После развертывания вы можете настроить ваших AI-провайдеров (OpenAI, Anthropic) и начать строить свой граф памяти.👉 Просмотреть полный гид по самостоятельному размещению
Примечание: Мы пробовали использовать open-source модели, такие как Ollama или GPT OSS, но генерация фактов была некачественной, мы все еще ищем способы улучшить это, после чего будет поддержка OSS моделей.
🚀 CORE Cloud
Постройте свой единый граф памяти за 5 минут:Не хотите управлять инфраструктурой? CORE Cloud позволяет мгновенно создать вашу личную систему памяти — без настроек, без серверов, просто память, которая работает.
- Зарегистрируйтесь на core.heysol.ai и создайте свой аккаунт
- Визуализируйте свой граф памяти и посмотрите, как CORE автоматически формирует связи между фактами
- Проверьте систему — задайте вопрос «Что ты знаешь обо мне?» в разделе беседы
- Подключите свои инструменты:
- Claude и Cursor — программирование с контекстом
- CLaude Code CLI и Codex CLI — программирование в терминале с памятью
- Добавить расширение для браузера — перенесите свою память на любой сайт
- Linear, Github — автоматическое добавление контекста проекта
🧩 Ключевые возможности
🧠 Единая, переносимая память:
Добавляйте и вспоминайте свою память через Cursor, Windsurf, Claude Desktop, Claude Code, Gemini CLI, AWS's Kiro, VS Code и Roo Code с помощью MCP🕸️ Темпоральный + Реализованный граф знаний:
Запоминайте историю каждого факта — отслеживайте, кто что сказал, когда и почему с богатыми связями и полной провенансом, а не просто плоским хранением
🌐 Расширение для браузера:
Сохраняйте беседы и контент из ChatGPT, Grok, Gemini, Twitter, YouTube, блогов и любых веб-страниц прямо в свою память CORE.
Как использовать расширение
- Скачайте расширение из Интернет-магазина Chrome.
- Войдите в панель CORE
- Перейдите в Настройки (нижний левый угол)
- Откройте API Key → Сгенерировать новый ключ → Назовите его “extension.”
- Откройте расширение, вставьте ваш API-ключ и сохраните.
💬 Чат с памятью:
Задавайте вопросы типа "Каковы мои предпочтения в письме?" и мгновенно получайте инсайты из подключённых знаний⚡ Автосинхронизация из приложений:
Автоматически фиксируйте релевантный контекст из Linear, Slack, Notion, GitHub и других подключённых приложений в память CORE
📖 Посмотреть все интеграции — Полный список поддерживаемых сервисов и их возможностей
🔗 MCP Integration Hub:
Подключите Linear, Slack, GitHub, Notion один раз к CORE — затем используйте все их инструменты в Claude, Cursor или любом MCP-клиенте через единый URL
Как CORE создаёт память
Конвейер сбора данных CORE состоит из четырёх фаз, предназначенных для фиксации изменяющегося контекста:
- Нормализация: Связывает новую информацию с недавним контекстом, разбивает длинные документы на связные фрагменты с сохранением перекрестных ссылок и стандартизирует термины, чтобы к моменту извлечения знаний CORE работал с чистым, контекстуализированным входом вместо неструктурированного текста.
- Извлечение: Извлекает смысл из нормализованного текста, выявляя сущности (люди, инструменты, проекты, концепции), превращая их в утверждения с контекстом, источником и временем, и отображая отношения. Например, “Мы написали CORE на Next.js” превращается в: Сущности (Core, Next.js), Утверждение (CORE был разработан с использованием Next.js), и Отношение (был разработан с использованием).
- Разрешение: Обнаруживает противоречия, отслеживает изменения предпочтений и сохраняет несколько точек зрения с указанием происхождения вместо их перезаписи, чтобы память отражала весь ваш путь, а не только последний снимок.
- Интеграция графа: Связывает сущности, утверждения и эпизоды в временной граф знаний, который связывает факты с их контекстом и историей, превращая разрозненные данные в живую сеть знаний, которую агенты действительно могут использовать.
Как CORE извлекает из памяти
Когда вы задаете вопрос CORE, он не просто ищет текст — он исследует весь ваш граф знаний, чтобы найти самые полезные ответы.
- Поиск: CORE просматривает память одновременно с разных сторон — поиск по ключевым словам для точных совпадений, семантический поиск для связанных идей даже при иной формулировке, и обход графа для следования связям между связанными концепциями.
- Переупорядочивание: Полученные результаты сортируются так, чтобы выделить самые релевантные и разнообразные, гарантируя, что вы увидите не только очевидные совпадения, но и более глубокие связи.
- Фильтрация: CORE применяет интеллектуальные фильтры по времени, надежности и силе связей, чтобы отображалась только самая значимая информация.
- Вывод: Вы получаете как факты (четкие утверждения), так и эпизоды (оригинальный контекст, из которого они взяты), чтобы восстановление всегда было привязано к контексту, времени и истории.
Документация
Изучайте нашу документацию, чтобы максимально эффективно использовать CORE
- Основные понятия
- Самостоятельный хостинг
- Подключение Core MCP к Claude
- Подключение Core MCP к Cursor
- Подключение Core MCP к Claude Code
- Подключение Core MCP к Codex
- Основные понятия
- API справочник
🔒 Безопасность
CORE серьезно относится к безопасности. Мы применяем отраслевые стандарты защиты данных:
- Шифрование данных: Все данные при передаче (TLS 1.3) и на хранении (AES-256)
- Аутентификация: OAuth 2.0 и аутентификация через магическую ссылку
- Контроль доступа: Изоляция по рабочим пространствам и разрешения на основе ролей
- Сообщение о уязвимостях: Пожалуйста, сообщайте о проблемах безопасности на harshith@poozle.dev
🧑💻 Поддержка
Есть вопросы или отзывы? Мы готовы помочь:
- Discord: Присоединиться к каналу core-support
- Документация: docs.heysol.ai
- Email: manik@poozle.dev
Рекомендации по использованию
Хранить:
- История переписки
- Настройки пользователя
- Контекст задачи
- Справочные материалы
- Конфиденциальные данные (ПДн)
- Учетные данные
- Системные журналы
- Временные данные
👥 Участники
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-16 ---