Tu información crítica está dispersa entre herramientas que no se comunican entre sí. Tu conversación con la IA comienza con "déjame darte algo de contexto". Tus experiencias y aprendizajes siguen en tu cabeza y tu cabeza no escala.
CORE recuerda. No es una base de datos. No es un cuadro de búsqueda. Es un cerebro digital que aprende lo que importa, conecta lo relacionado y muestra lo que necesitas.
Para Desarrolladores
CORE da a tus herramientas de IA memoria persistente y la capacidad de actuar en las aplicaciones que usas.
- Contexto preservado entre Claude Code, Cursor y otros agentes de codificación
- Realiza acciones en Linear, GitHub, Slack, Gmail, Google Sheets y otras aplicaciones que utilizas
- Conéctate una vez vía MCP, funciona en todas partes
- Código abierto y autohospedable; tus datos, tu control
Lo Que Puedes Hacer
1. No te repitas, el contexto fluye automáticamente
CORE se convierte en tu capa de memoria persistente para agentes de codificación. Pide a cualquier herramienta de IA que obtenga el contexto relevante.
Search core memory for architecture decisions on the payment service
What my content guidelines from core to create the blog?
2. Realiza acciones en tus aplicaciones desde Claude/Cursor
Conecta tus aplicaciones una vez, realiza acciones desde cualquier lugar.
- Crea/Lee incidencias de GitHub, Linear
- Redacta/Envía/Lee un correo electrónico y almacena información relevante en CORE
- Administra tu calendario, actualiza hojas de cálculo
3. Retoma donde lo dejaste claude code/cursor
¿Vuelves a una función después de una semana? Ponte al día al instante.
What did we discuss about the checkout flow? Summarize from memory.
Refer to past discussions and remind me where we left off on the API refactor
Qué Hace Diferente a CORE
- Gráfico de Contexto Temporal: CORE no solo almacena hechos: recuerda la historia. Cuándo ocurrieron las cosas, cómo evolucionó tu pensamiento, qué llevó a cada decisión. Tus preferencias, metas y elecciones pasadas, todo conectado en un gráfico que entiende la secuencia y el contexto.
- 88,24% de Precisión de Recuperación: Probado en el benchmark LoCoMo. Cuando le preguntas algo a CORE, encuentra lo relevante. No es coincidencia de palabras clave, es verdadera comprensión semántica con razonamiento de múltiples saltos.
- Tú Lo Controlas: Tu memoria, tus reglas. Edita lo que esté mal. Elimina lo que no corresponde. Visualiza cómo se conecta tu conocimiento. CORE es transparente, ves exactamente lo que sabe.
- Código Abierto: Sin cajas negras. Sin dependencia de proveedores. Tu cerebro digital te pertenece.
🚀 Inicio Rápido
Elige tu camino:
| | CORE Cloud | Auto-Hospedaje | |---|---|---| | Tiempo de configuración | 5 minutos | 15 minutos | | Mejor para | Probar rápido, sin infraestructura | Control total, tus servidores | | Requisitos | Solo una cuenta | Docker, 4GB RAM |
Nube
- Regístrate en app.getcore.me
- Conecta una fuente (Claude, Cursor o cualquier herramienta compatible con MCP)
- Comienza a usar CORE para realizar cualquier acción o almacenar datos sobre ti en la memoria
Auto-Hospedaje
Despliegue Rápido
O con Docker
- Clona el repositorio:
git clone https://github.com/RedPlanetHQ/core.git
cd core- Configura las variables de entorno en
core/.env:
OPENAI_API_KEY=your_openai_api_key- Inicie el servicio
docker-compose up -dUna vez implementado, puedes configurar tus proveedores de IA (OpenAI, Anthropic) y comenzar a construir tu grafo de memoria.
👉 Ver guía completa de auto-hospedaje
Nota: Probamos modelos de código abierto como Ollama o GPT OSS pero la generación de hechos no fue buena, todavía estamos averiguando cómo mejorar eso y luego también soportaremos modelos OSS.
🛠️ Instalación
Recomendado
Instalar en Claude Code CLI
- Ejecuta este comando en tu terminal para conectar CORE con Claude Code:
claude mcp add --transport http --scope user core-memory https://mcp.getcore.me/api/v1/mcp?source=Claude-Code- Escribe
/mcpy abre MCP de core-memory para autenticación
Instalar en Cursor
Desde Cursor 1.0, puedes hacer clic en el botón de instalación a continuación para una instalación instantánea con un solo clic.
O
- Ve a:
Configuración->Herramientas y Integraciones->Agregar MCP personalizada - Ingresa lo siguiente en el archivo
mcp.json:
{
"mcpServers": {
"core-memory": {
"url": "https://mcp.getcore.me/api/v1/mcp?source=cursor",
"headers": {}
}
}
}Instalar en Claude Desktop
- Copia la URL de CORE MCP:
https://mcp.getcore.me/api/v1/mcp?source=Claude- Navegue a Configuración → Conectores → Haga clic en Agregar conector personalizado
- Haga clic en "Conectar" y otorgue permiso a Claude para acceder a CORE MCP
CLIs
Instalar en Codex CLI
Opción 1 (Recomendado): Agregue a su archivo ~/.codex/config.toml:
[features]
rmcp_client=true[mcp_servers.memory]
url = "https://mcp.getcore.me/api/v1/mcp?source=codex"
Luego ejecuta: codex mcp memory login
Opción 2 (Si la Opción 1 no funciona): Agrega la configuración de la clave API:
[features]
rmcp_client=true[mcp_servers.memory]
url = "https://mcp.getcore.me/api/v1/mcp?source=codex"
http_headers = { "Authorization" = "Bearer CORE_API_KEY" }
Obtén tu clave API en app.getcore.me → Configuración → Clave API, luego ejecuta: codex mcp memory login
Instalar en Gemini CLI
Consulta Configuración de Gemini CLI para más detalles.
- Abre el archivo de configuración de Gemini CLI. La ubicación es
~/.gemini/settings.json(donde~es tu directorio de inicio). - Agrega lo siguiente al objeto
mcpServersen tu archivosettings.json:
{
"mcpServers": {
"corememory": {
"httpUrl": "https://mcp.getcore.me/api/v1/mcp?source=geminicli",
"timeout": 5000
}
}
}Si el objeto mcpServers no existe, créalo.
Instalar en Copilot CLI
Agrega lo siguiente a tu archivo ~/.copilot/mcp-config.json:
{
"mcpServers": {
"core": {
"type": "http",
"url": "https://mcp.getcore.me/api/v1/mcp?source=Copilot-CLI",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}IDEs
Instalar en VS Code
Ingrese lo siguiente en el archivo mcp.json:
{
"servers": {
"core-memory": {
"url": "https://mcp.getcore.me/api/v1/mcp?source=Vscode",
"type": "http",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}Instalar en VS Code Insiders
Agrega a tu configuración MCP de VS Code Insiders:
{
"mcp": {
"servers": {
"core-memory": {
"type": "http",
"url": "https://mcp.getcore.me/api/v1/mcp?source=VSCode-Insiders",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}
}Instalar en Windsurf
Ingrese lo siguiente en el archivo mcp_config.json:
{
"mcpServers": {
"core-memory": {
"serverUrl": "https://mcp.getcore.me/api/v1/mcp/source=windsurf",
"headers": {
"Authorization": "Bearer "
}
}
}
} Instalar en Zed
- Ve a
Configuraciónen el Panel de Agente ->Agregar servidor personalizado - Ingresa el siguiente código en el archivo de configuración y haz clic en el botón
Agregar servidor
{
"core-memory": {
"command": "npx",
"args": ["-y", "mcp-remote", "https://mcp.getcore.me/api/v1/mcp?source=Zed"]
}
}Agentes de Programación
Instalar en Amp
Ejecute este comando en su terminal:
amp mcp add core-memory https://mcp.getcore.me/api/v1/mcp?source=ampInstalar en Augment Code
Agrega a tu archivo ~/.augment/settings.json lo siguiente:
{
"mcpServers": {
"core-memory": {
"type": "http",
"url": "https://mcp.getcore.me/api/v1/mcp?source=augment-code",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}Instalar en Cline
- Abre Cline y haz clic en el ícono de menú hamburguesa (☰) para ingresar a la sección de Servidores MCP
- Elige la pestaña de Servidores Remotos y haz clic en el botón Editar Configuración
- Añade lo siguiente a tu configuración MCP de Cline:
{
"mcpServers": {
"core-memory": {
"url": "https://mcp.getcore.me/api/v1/mcp?source=Cline",
"type": "streamableHttp",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}Instalar en Kilo Code
- Ve a
Configuración→Servidores MCP→ pestañaInstalado→ haz clic enEditar MCP Globalpara editar tu configuración. - Añade lo siguiente a tu archivo de configuración MCP:
{
"core-memory": {
"type": "streamable-http",
"url": "https://mcp.getcore.me/api/v1/mcp?source=Kilo-Code",
"headers": {
"Authorization": "Bearer your-token"
}
}
}Instalar en Kiro
Agregar en Kiro → Servidores MCP:
{
"mcpServers": {
"core-memory": {
"url": "https://mcp.getcore.me/api/v1/mcp?source=Kiro",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}Instalar en Qwen Coder
Consulta Configuración de Qwen Coder MCP para más detalles.
Agrega a ~/.qwen/settings.json:
{
"mcpServers": {
"core-memory": {
"httpUrl": "https://mcp.getcore.me/api/v1/mcp?source=Qwen",
"headers": {
"Authorization": "Bearer YOUR_API_KEY",
"Accept": "application/json, text/event-stream"
}
}
}
}Instalar en Roo Code
Agregue a la configuración MCP de su Roo Code:
{
"mcpServers": {
"core-memory": {
"type": "streamable-http",
"url": "https://mcp.getcore.me/api/v1/mcp?source=Roo-Code",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}Instalar en Opencode
Agregue a su configuración de Opencode:
{
"mcp": {
"core-memory": {
"type": "remote",
"url": "https://mcp.getcore.me/api/v1/mcp?source=Opencode",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
},
"enabled": true
}
}
}Instalar en el Agente de Codificación de Copilot
Agregue a Configuración del Repositorio → Copilot → Agente de codificación → Configuración de MCP:
{
"mcpServers": {
"core": {
"type": "http",
"url": "https://mcp.getcore.me/api/v1/mcp?source=Copilot-Agent",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}Instalar en Qodo Gen
- Abre el panel de chat de Qodo Gen en VSCode o IntelliJ
- Haz clic en Conectar más herramientas, luego haz clic en + Añadir nuevo MCP
- Añade la siguiente configuración:
{
"mcpServers": {
"core-memory": {
"url": "https://mcp.getcore.me/api/v1/mcp?source=Qodo-Gen"
}
}
}Terminales
Instalar en Warp
Agregue en Configuración → IA → Administrar servidores MCP:
{
"core": {
"url": "https://mcp.getcore.me/api/v1/mcp?source=Warp",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}Instalar en Crush
Agregue a su configuración de Crush:
{
"$schema": "https://charm.land/crush.json",
"mcp": {
"core": {
"type": "http",
"url": "https://mcp.getcore.me/api/v1/mcp?source=Crush",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}Aplicaciones de Escritorio
Instalar en ChatGPT
Conecta ChatGPT al sistema de memoria de CORE mediante la extensión del navegador:
- Instala la extensión Core para navegador
- Genera la clave API: Ve a Configuración → Clave API → Generar nueva clave → Nómbrala "extension"
- Añade la clave API en la extensión Core y haz clic en Guardar
Instalar en Gemini
Conecta Gemini al sistema de memoria de CORE mediante la extensión del navegador:
- Instala la extensión Core para navegador
- Genera la clave API: Ve a Configuración → Clave API → Generar nueva clave → Nómbrala "extension"
- Añade la clave API en la extensión Core y haz clic en Guardar
Instalar en Perplexity Desktop
- Agrega en Perplexity → Configuración → Conectores → Agregar Conector → Avanzado:
{
"core-memory": {
"command": "npx",
"args": ["-y", "mcp-remote", "https://mcp.getcore.me/api/v1/mcp?source=perplexity"]
}
}- Haz clic en Guardar para aplicar los cambios
- Core estará disponible en tus sesiones de Perplexity
Herramientas de desarrollo
Instalar en Factory
Ejecuta en la terminal:
droid mcp add core https://mcp.getcore.me/api/v1/mcp?source=Factory --type http --header "Authorization: Bearer YOUR_API_KEY"Escriba /mcp dentro de droid para gestionar servidores y ver las herramientas disponibles.
Instalar en Rovo Dev CLI
- Edite la configuración de mcp:
acli rovodev mcp- Agregue a su configuración de Rovo Dev MCP:
{
"mcpServers": {
"core-memory": {
"url": "https://mcp.getcore.me/api/v1/mcp?source=Rovo-Dev"
}
}
}Instalar en Trae
Agregue a su configuración MCP de Trae:
{
"mcpServers": {
"core": {
"url": "https://mcp.getcore.me/api/v1/mcp?source=Trae"
}
}
}
🔨 Herramientas Disponibles
CORE Memory MCP proporciona las siguientes herramientas que los LLMs pueden utilizar:
memory_search: Buscar contexto relevante en CORE Memory.memory_ingest: Añadir un episodio en CORE Memory.memory_about_user: Recuperar la persona del usuario desde CORE Memory.initialise_conversation_session: Inicializar la conversación y asignar un id de sesión a la conversación.get_integrations: Obtener qué integración relevante debe usarse de las integraciones conectadas.get_integrations_actions: Obtener qué herramienta debe usarse de las herramientas de integración para la tarea.execute_integrations_actions: Ejecutar la herramienta para esa integración.
Cómo Funciona
Ingesta de Memoria
Cuando guardas contexto en CORE, pasa por cuatro fases:
- Normalización: Vincula nueva información al contexto reciente, divide documentos en fragmentos coherentes manteniendo referencias cruzadas
- Extracción: Identifica entidades (personas, herramientas, proyectos), crea declaraciones con contexto y tiempo, mapea relaciones
- Resolución: Detecta contradicciones, rastrea cómo evolucionan las preferencias, preserva múltiples perspectivas con procedencia
- Integración en Grafo: Conecta entidades, declaraciones y episodios en un grafo de conocimiento temporal
- Entidades:
CORE,Next.js - Declaración:
CORE fue desarrollado usando Next.js - Relación:
fue desarrollado usando
Recuperación de Memoria
Cuando consultas a CORE:
- Búsqueda: Enfoque híbrido: palabras clave + semántica + recorrido de grafo
- Reordenar: Muestra los resultados más relevantes y diversos
- Filtrar: Aplica filtros de tiempo, fiabilidad y fuerza de relación
- Salida: Devuelve hechos Y los episodios de los que provienen
🛠️ Para Constructores de Agentes
¿Construyendo agentes de IA? CORE te da infraestructura de memoria + infraestructura de integraciones para que te enfoques en la lógica de tu agente.
Lo que obtienes
Infraestructura de Memoria
- Grafo de conocimiento temporal con precisión LoCoMo de 88.24%
- Búsqueda híbrida: semántica + palabras clave + recorrido de grafo
- Rastrea evolución de contexto y contradicciones
- Conecta GitHub, Linear, Slack, Gmail una vez
- Tu agente obtiene herramientas MCP para todas las apps conectadas
- Sin flujos OAuth ni mantenimiento de API
Ejemplos de Proyectos
core-cli — Un agente gestor de tareas que se conecta a CORE para memoria y sincroniza con Linear, GitHub Issues.
holo — Convierte la memoria de CORE en un sitio web personal con chat.
Recursos
- Referencia API
- Documentación SDK
- ¿Necesitas una integración específica? Abre un issue en GitHub
🔥 Aspectos Destacados de la Investigación
La memoria CORE alcanza un 88.24% de precisión promedio en el conjunto de datos Locomo en todas las tareas de razonamiento, superando significativamente a otros proveedores de memoria.
| Tipo de Tarea | Descripción | |---------------|-------------| | Un salto | Respuestas basadas en una sola sesión | | Multisalto | Sintetizando información de múltiples sesiones | | Dominio abierto | Integrando información del usuario con conocimiento externo | | Razonamiento temporal | Pistas relacionadas con el tiempo y comprensión de secuencias |
Ver metodología y resultados del benchmark →
🔒 Seguridad
Certificación CASA Nivel 2 — Auditada por terceros para cumplir los requisitos OAuth de Google.
- Encriptación: TLS 1.3 (en tránsito) + AES-256 (en reposo)
- Autenticación: OAuth 2.0 y enlace mágico
- Control de acceso: Aislamiento basado en espacios de trabajo, permisos basados en roles
- Arquitectura de confianza cero: Nunca confiar, siempre verificar
- Edita y elimina en cualquier momento
- Nunca se usan para entrenamiento de modelos de IA
- Opción de autoalojamiento para aislamiento total
Reporte de vulnerabilidades: harshith@poozle.dev
Documentación
Explora nuestra documentación para sacar el máximo provecho de CORE
🧑💻 Soporte
¿Tienes preguntas o comentarios? Estamos aquí para ayudarte:
- Discord: Únete al canal core-support
- Documentación: docs.getcore.me
- Correo electrónico: manik@poozle.dev
Directrices de Uso
Almacenar:
- Historial de conversaciones
- Preferencias del usuario
- Contexto de tareas
- Materiales de referencia
- Datos sensibles (PII)
- Credenciales
- Registros del sistema
- Datos temporales
👥 Contribuidores
--- Tranlated By Open Ai Tx | Last indexed: 2026-01-10 ---