🔥 Destacados de Investigación
La memoria CORE logra una precisión promedio de 88.24% en el conjunto de datos Locomo en todas las tareas de razonamiento, superando significativamente a otros proveedores de memoria. Consulta este blog para más información.
(1) Las preguntas de salto único requieren respuestas basadas en una sola sesión; (2) Las preguntas de salto múltiple requieren sintetizar información de múltiples sesiones diferentes; (3) Las preguntas de conocimiento de dominio abierto pueden responderse integrando la información proporcionada por el hablante con conocimiento externo como sentido común o hechos del mundo; (4) Las preguntas de razonamiento temporal pueden responderse mediante razonamiento temporal y capturando pistas de datos relacionadas con el tiempo dentro de la conversación;
Descripción general
Problema
Los desarrolladores pierden tiempo re-explicando el contexto a las herramientas de IA. ¿Llegaste al límite de tokens en Claude? Comienza desde cero y pierdes todo. ¿Cambias de ChatGPT/Claude a Cursor? Explica tu contexto nuevamente. Tus conversaciones, decisiones y conocimientos desaparecen entre sesiones. Con cada nueva herramienta de IA, el costo de cambiar de contexto aumenta.
Solución - CORE (Motor de Observación y Recuperación Contextual)
CORE es una capa de memoria unificada y persistente de código abierto para todas tus herramientas de IA. Tu contexto te acompaña de Cursor a Claude, de ChatGPT a Claude Code. Un gráfico de conocimiento recuerda quién dijo qué, cuándo y por qué. Conéctate una vez, recuerda en todas partes. Deja de gestionar el contexto y comienza a construir.
🚀 CORE Autohospedado
¿Quieres ejecutar CORE en tu propia infraestructura? El autohospedaje te da control total sobre tus datos y despliegue.Requisitos previos:
- Docker (20.10.0+) y Docker Compose (2.20.0+) instalados
- Clave de API de OpenAI
Instalación
- Clona el repositorio:
git clone https://github.com/RedPlanetHQ/core.git
cd core
- Configura las variables de entorno en
core/.env:
OPENAI_API_KEY=your_openai_api_key
- Inicie el servicio
docker-compose up -dUna vez desplegado, puedes configurar tus proveedores de IA (OpenAI, Anthropic) y comenzar a construir tu gráfico de memoria.
👉 Ver guía completa de auto-hospedaje
Nota: Probamos modelos de código abierto como Ollama o GPT OSS pero la generación de hechos no fue buena, aún estamos buscando cómo mejorar eso y luego también soportaremos modelos OSS.
🚀 CORE Cloud
Construye tu gráfico de memoria unificado en 5 minutos:¿No quieres administrar infraestructura? CORE Cloud te permite construir tu sistema personal de memoria al instante: sin configuración, sin servidores, solo memoria que funciona.
- Regístrate en core.heysol.ai y crea tu cuenta
- Visualiza tu gráfico de memoria y observa cómo CORE forma automáticamente conexiones entre hechos
- Pruébalo: pregunta "¿Qué sabes sobre mí?" en la sección de conversación
- Conecta tus herramientas:
- Claude y Cursor: programación con contexto
- CLaude Code CLI y Codex CLI: programación en terminal con memoria
- Agregar extensión de navegador: lleva tu memoria a cualquier sitio web
- Linear, Github: agrega contexto de proyecto automáticamente
🧩 Funciones Clave
🧠 Memoria Unificada y Portátil:
Agrega y recupera tu memoria en Cursor, Windsurf, Claude Desktop, Claude Code, Gemini CLI, AWS's Kiro, VS Code y Roo Code vía MCP🕸️ Grafo de Conocimiento Temporal + Reificado:
Recuerda la historia detrás de cada hecho: rastrea quién dijo qué, cuándo y por qué con relaciones ricas y procedencia completa, no solo almacenamiento plano
🌐 Extensión de Navegador:
Guarda conversaciones y contenido de ChatGPT, Grok, Gemini, Twitter, YouTube, publicaciones de blogs y cualquier página web directamente en tu memoria CORE.
Cómo usar la extensión
- Descarga la extensión desde Chrome Web Store.
- Inicia sesión en el panel de CORE
- Navega a Configuración (esquina inferior izquierda)
- Ve a Clave API → Generar nueva clave → Nómbrala “extensión.”
- Abre la extensión, pega tu clave API y guarda.
💬 Chatea con Memoria:
Haz preguntas como "¿Cuáles son mis preferencias de escritura?" con información instantánea de tu conocimiento conectado⚡ Sincronización Automática desde Apps:
Captura automáticamente el contexto relevante de Linear, Slack, Notion, GitHub y otras aplicaciones conectadas en tu memoria CORE
📖 Ver todas las integraciones - Lista completa de servicios compatibles y sus características
🔗 Centro de Integración MCP:
Conecta Linear, Slack, GitHub, Notion una vez a CORE—luego utiliza todas sus herramientas en Claude, Cursor o cualquier cliente MCP con una sola URL
Cómo CORE crea memoria
La canalización de ingestión de CORE tiene cuatro fases diseñadas para capturar el contexto evolutivo:
- Normalización: Vincula nueva información con el contexto reciente, divide documentos largos en fragmentos coherentes mientras mantiene referencias cruzadas, y estandariza términos para que, cuando CORE extrae conocimiento, trabaje con una entrada limpia y contextualizada en lugar de texto desordenado.
- Extracción: Extrae significado del texto normalizado identificando entidades (personas, herramientas, proyectos, conceptos), convirtiéndolas en declaraciones con contexto, fuente y tiempo, y mapeando relaciones. Por ejemplo, “Escribimos CORE en Next.js” se convierte en: Entidades (CORE, Next.js), Declaración (CORE fue desarrollado usando Next.js), y Relación (fue desarrollado usando).
- Resolución: Detecta contradicciones, rastrea cómo evolucionan las preferencias, y preserva múltiples perspectivas con procedencia en lugar de sobrescribirlas, para que la memoria refleje todo tu recorrido, no solo la última instantánea.
- Integración de Grafo: Conecta entidades, declaraciones y episodios en un grafo de conocimiento temporal que enlaza hechos con su contexto e historia, convirtiendo datos aislados en una red viva de conocimiento que los agentes realmente pueden usar.
Cómo CORE recupera de la memoria
Cuando le preguntas algo a CORE, no solo busca texto: explora todo tu grafo de conocimiento para encontrar las respuestas más útiles.
- Búsqueda: CORE revisa la memoria desde múltiples ángulos a la vez: búsqueda por palabras clave para coincidencias exactas, búsqueda semántica para ideas relacionadas aunque estén expresadas de forma diferente, y recorrido de grafo para seguir vínculos entre conceptos conectados.
- Reordenamiento: Los resultados recuperados se reordenan para destacar los más relevantes y diversos, asegurando que no solo veas coincidencias obvias sino también conexiones más profundas.
- Filtrado: CORE aplica filtros inteligentes basados en tiempo, fiabilidad y fuerza de relación, para que solo aflore el conocimiento más significativo.
- Salida: Recibes tanto hechos (declaraciones claras) como episodios (el contexto original del que provienen), de modo que el recuerdo siempre esté fundamentado en contexto, tiempo e historia.
Documentación
Explora nuestra documentación para aprovechar al máximo CORE
- Conceptos Básicos
- Auto hospedaje
- Conectar Core MCP con Claude
- Conectar Core MCP con Cursor
- Conectar Core MCP con Claude Code
- Conectar Core MCP con Codex
- Conceptos Básicos
- Referencia de API
🔒 Seguridad
CORE se toma la seguridad en serio. Implementamos prácticas de seguridad estándar de la industria para proteger tus datos:
- Cifrado de datos: Todos los datos en tránsito (TLS 1.3) y en reposo (AES-256)
- Autenticación: OAuth 2.0 y autenticación por enlace mágico
- Control de acceso: Aislamiento por espacio de trabajo y permisos basados en roles
- Reporte de vulnerabilidades: Por favor, informe problemas de seguridad a harshith@poozle.dev
🧑💻 Soporte
¿Tiene preguntas o comentarios? Estamos aquí para ayudarle:
- Discord: Únase al canal core-support
- Documentación: docs.heysol.ai
- Correo electrónico: manik@poozle.dev
Directrices de uso
Almacene:
- Historial de conversaciones
- Preferencias de usuario
- Contexto de tareas
- Materiales de referencia
- Datos sensibles (PII)
- Credenciales
- Registros del sistema
- Datos temporales
👥 Contribuidores
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-16 ---