Suas informações críticas estão espalhadas por ferramentas que não se comunicam entre si. Sua conversa com IA começa com "deixe-me te dar um contexto". Suas experiências e aprendizados ainda estão na sua cabeça e sua cabeça não escala.
CORE lembra. Não é um banco de dados. Não é uma caixa de pesquisa. Um cérebro digital que aprende o que importa, conecta o que é relacionado e traz à tona o que você precisa.
Para Desenvolvedores
O CORE dá às suas ferramentas de IA memória persistente e a capacidade de agir nos apps que você usa.
- Contexto preservado entre Claude Code, Cursor e outros agentes de codificação
- Tome ações no Linear, GitHub, Slack, Gmail, Google Sheets e outros apps que você usa
- Conecte uma vez via MCP, funciona em todo lugar
- Open-source e auto-hospedável; seus dados, seu controle
O Que Você Pode Fazer
1. Nunca se repita, contexto flui automaticamente
O CORE se torna sua camada de memória persistente para agentes de codificação. Peça a qualquer ferramenta de IA para buscar o contexto relevante.
Search core memory for architecture decisions on the payment service
What my content guidelines from core to create the blog?
2. Tome ações em seus aplicativos a partir do Claude/Cursor
Conecte seus aplicativos uma vez e realize ações de qualquer lugar.
- Criar/Ler issues no GitHub, Linear
- Redigir/Enviar/Ler um e-mail e armazenar informações relevantes no CORE
- Gerenciar seu calendário, atualizar planilhas
3. Continue de onde parou no claude code/cursor
Voltando a uma funcionalidade após uma semana? Atualize-se instantaneamente.
What did we discuss about the checkout flow? Summarize from memory.
Refer to past discussions and remind me where we left off on the API refactor
O Que Torna o CORE Diferente
- Grafo de Contexto Temporal: O CORE não armazena apenas fatos — ele lembra da história. Quando as coisas aconteceram, como seu pensamento evoluiu, o que levou a cada decisão. Suas preferências, metas e escolhas passadas — tudo conectado em um grafo que entende sequência e contexto.
- 88,24% de Precisão de Recuperação: Testado no benchmark LoCoMo. Quando você pergunta algo ao CORE, ele encontra o que é relevante. Não é uma simples correspondência de palavras-chave, mas sim compreensão semântica real com raciocínio multi-hop.
- Você No Controle: Sua memória, suas regras. Edite o que estiver errado. Exclua o que não pertence. Visualize como seu conhecimento se conecta. O CORE é transparente, você vê exatamente o que ele sabe.
- Código Aberto: Sem caixas-pretas. Sem dependência de fornecedores. Seu cérebro digital pertence a você.
🚀 Início Rápido
Escolha seu caminho:
| | CORE Cloud | Self-Host | |---|---|---| | Tempo de configuração | 5 minutos | 15 minutos | | Melhor para | Testar rápido, sem infra | Controle total, seus servidores | | Requisitos | Apenas uma conta | Docker, 4GB RAM |
Cloud
- Cadastre-se em app.getcore.me
- Conecte uma fonte (Claude, Cursor ou qualquer ferramenta compatível com MCP)
- Comece a usar o CORE para executar qualquer ação ou armazenar informações sobre você na memória
Self-Host
Implantação Rápida
Ou com Docker
- Clone o repositório:
git clone https://github.com/RedPlanetHQ/core.git
cd core- Configure as variáveis de ambiente em
core/.env:
OPENAI_API_KEY=your_openai_api_key- Inicie o serviço
docker-compose up -d
Depois de implantado, você pode configurar seus provedores de IA (OpenAI, Anthropic) e começar a construir seu grafo de memória.👉 Veja o guia completo de auto-hospedagem
Nota: Testamos modelos open-source como Ollama ou GPT OSS, mas a geração de fatos não foi boa. Ainda estamos tentando melhorar isso para então também oferecer suporte a modelos OSS.
🛠️ Instalação
Recomendado
Instalar no Claude Code CLI
- Execute este comando no seu terminal para conectar o CORE com o Claude Code:
claude mcp add --transport http --scope user core-memory https://mcp.getcore.me/api/v1/mcp?source=Claude-Code- Digite
/mcpe abra o MCP de core-memory para autenticação
Instalar no Cursor
Desde o Cursor 1.0, você pode clicar no botão de instalação abaixo para uma instalação instantânea com um clique.
OU
- Vá em:
Configurações->Ferramentas e Integrações->Adicionar MCP Personalizado - Insira o texto abaixo no arquivo
mcp.json:
{
"mcpServers": {
"core-memory": {
"url": "https://mcp.getcore.me/api/v1/mcp?source=cursor",
"headers": {}
}
}
}Instalar no Claude Desktop
- Copie o URL do CORE MCP:
https://mcp.getcore.me/api/v1/mcp?source=Claude- Navegue até Configurações → Conectores → Clique em Adicionar conector personalizado
- Clique em "Conectar" e conceda permissão ao Claude para acessar o CORE MCP
CLIs
Instalar no Codex CLI
Opção 1 (Recomendado): Adicione ao seu arquivo ~/.codex/config.toml:
[features]
rmcp_client=true[mcp_servers.memory]
url = "https://mcp.getcore.me/api/v1/mcp?source=codex"
Em seguida, execute: codex mcp memory login
Opção 2 (Se a Opção 1 não funcionar): Adicione a configuração da chave da API:
[features]
rmcp_client=true[mcp_servers.memory]
url = "https://mcp.getcore.me/api/v1/mcp?source=codex"
http_headers = { "Authorization" = "Bearer CORE_API_KEY" }
Obtenha sua chave de API em app.getcore.me → Configurações → Chave de API, depois execute: codex mcp memory login
Instalar no Gemini CLI
Veja Configuração do Gemini CLI para mais detalhes.
- Abra o arquivo de configurações do Gemini CLI. O local é
~/.gemini/settings.json(onde~é seu diretório pessoal). - Adicione o seguinte ao objeto
mcpServersno seu arquivosettings.json:
{
"mcpServers": {
"corememory": {
"httpUrl": "https://mcp.getcore.me/api/v1/mcp?source=geminicli",
"timeout": 5000
}
}
}Se o objeto mcpServers não existir, crie-o.
Instalar no Copilot CLI
Adicione o seguinte ao seu arquivo ~/.copilot/mcp-config.json:
{
"mcpServers": {
"core": {
"type": "http",
"url": "https://mcp.getcore.me/api/v1/mcp?source=Copilot-CLI",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}IDEs
Instalar no VS Code
Insira o texto abaixo no arquivo mcp.json:
{
"servers": {
"core-memory": {
"url": "https://mcp.getcore.me/api/v1/mcp?source=Vscode",
"type": "http",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}Instalar no VS Code Insiders
Adicione à sua configuração MCP do VS Code Insiders:
{
"mcp": {
"servers": {
"core-memory": {
"type": "http",
"url": "https://mcp.getcore.me/api/v1/mcp?source=VSCode-Insiders",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}
}Instalar no Windsurf
Insira o texto abaixo no arquivo mcp_config.json:
{
"mcpServers": {
"core-memory": {
"serverUrl": "https://mcp.getcore.me/api/v1/mcp/source=windsurf",
"headers": {
"Authorization": "Bearer "
}
}
}
} Instalar no Zed
- Vá para
Configuraçõesno Painel do Agente ->Adicionar Servidor Personalizado - Insira o código abaixo no arquivo de configuração e clique no botão
Adicionar servidor
{
"core-memory": {
"command": "npx",
"args": ["-y", "mcp-remote", "https://mcp.getcore.me/api/v1/mcp?source=Zed"]
}
}Agentes de Codificação
Instalar no Amp
Execute este comando no seu terminal:
amp mcp add core-memory https://mcp.getcore.me/api/v1/mcp?source=ampInstalar no Augment Code
Adicione ao seu arquivo ~/.augment/settings.json:
{
"mcpServers": {
"core-memory": {
"type": "http",
"url": "https://mcp.getcore.me/api/v1/mcp?source=augment-code",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}Instalar no Cline
- Abra o Cline e clique no ícone do menu hambúrguer (☰) para entrar na seção de Servidores MCP
- Escolha a guia Servidores Remotos e clique no botão Editar Configuração
- Adicione o seguinte à sua configuração MCP do Cline:
{
"mcpServers": {
"core-memory": {
"url": "https://mcp.getcore.me/api/v1/mcp?source=Cline",
"type": "streamableHttp",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}Instalar no Kilo Code
- Vá para
Configurações→Servidores MCP→ abaInstalados→ clique emEditar MCP Globalpara editar sua configuração. - Adicione o seguinte ao seu arquivo de configuração MCP:
{
"core-memory": {
"type": "streamable-http",
"url": "https://mcp.getcore.me/api/v1/mcp?source=Kilo-Code",
"headers": {
"Authorization": "Bearer your-token"
}
}
}Instalar no Kiro
Adicione em Kiro → Servidores MCP:
{
"mcpServers": {
"core-memory": {
"url": "https://mcp.getcore.me/api/v1/mcp?source=Kiro",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}Instalar no Qwen Coder
Veja Configuração do Qwen Coder MCP para detalhes.
Adicione em ~/.qwen/settings.json:
{
"mcpServers": {
"core-memory": {
"httpUrl": "https://mcp.getcore.me/api/v1/mcp?source=Qwen",
"headers": {
"Authorization": "Bearer YOUR_API_KEY",
"Accept": "application/json, text/event-stream"
}
}
}
}Instalar no Roo Code
Adicione à configuração MCP do Roo Code:
{
"mcpServers": {
"core-memory": {
"type": "streamable-http",
"url": "https://mcp.getcore.me/api/v1/mcp?source=Roo-Code",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}Instalar no Opencode
Adicione à sua configuração do Opencode:
{
"mcp": {
"core-memory": {
"type": "remote",
"url": "https://mcp.getcore.me/api/v1/mcp?source=Opencode",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
},
"enabled": true
}
}
}Instalar no Agente de Codificação Copilot
Adicione em Configurações do Repositório → Copilot → Agente de Codificação → Configuração MCP:
{
"mcpServers": {
"core": {
"type": "http",
"url": "https://mcp.getcore.me/api/v1/mcp?source=Copilot-Agent",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}Instalar no Qodo Gen
- Abra o painel de chat do Qodo Gen no VSCode ou IntelliJ
- Clique em Conectar mais ferramentas, depois clique em + Adicionar novo MCP
- Adicione a seguinte configuração:
{
"mcpServers": {
"core-memory": {
"url": "https://mcp.getcore.me/api/v1/mcp?source=Qodo-Gen"
}
}
}Terminais
Instalar no Warp
Adicione em Configurações → IA → Gerenciar servidores MCP:
{
"core": {
"url": "https://mcp.getcore.me/api/v1/mcp?source=Warp",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}Instalar no Crush
Adicione à sua configuração do Crush:
{
"$schema": "https://charm.land/crush.json",
"mcp": {
"core": {
"type": "http",
"url": "https://mcp.getcore.me/api/v1/mcp?source=Crush",
"headers": {
"Authorization": "Bearer YOUR_API_KEY"
}
}
}
}Aplicativos Desktop
Instalar no ChatGPT
Conecte o ChatGPT ao sistema de memória CORE via extensão do navegador:
- Instale a Extensão Core para Navegador
- Gere uma chave de API: Vá para Configurações → Chave de API → Gerar nova chave → Nomeie como "extensão"
- Adicione a chave de API na Extensão Core e clique em Salvar
Instalar no Gemini
Conecte o Gemini ao sistema de memória CORE via extensão do navegador:
- Instale a Extensão Core para Navegador
- Gere uma chave de API: Vá para Configurações → Chave de API → Gerar nova chave → Nomeie como "extensão"
- Adicione a chave de API na Extensão Core e clique em Salvar
Instalar no Perplexity Desktop
- Adicione em Perplexity → Configurações → Conectores → Adicionar Conector → Avançado:
{
"core-memory": {
"command": "npx",
"args": ["-y", "mcp-remote", "https://mcp.getcore.me/api/v1/mcp?source=perplexity"]
}
}- Clique em Salvar para aplicar as alterações
- O Core estará disponível em suas sessões do Perplexity
Ferramentas de Desenvolvimento
Instalar na Factory
Execute no terminal:
droid mcp add core https://mcp.getcore.me/api/v1/mcp?source=Factory --type http --header "Authorization: Bearer YOUR_API_KEY"Digite /mcp no droid para gerenciar servidores e ver as ferramentas disponíveis.
Instalar no Rovo Dev CLI
- Edite a configuração do mcp:
acli rovodev mcp- Adicione à sua configuração Rovo Dev MCP:
{
"mcpServers": {
"core-memory": {
"url": "https://mcp.getcore.me/api/v1/mcp?source=Rovo-Dev"
}
}
}Instalar no Trae
Adicione à sua configuração do Trae MCP:
{
"mcpServers": {
"core": {
"url": "https://mcp.getcore.me/api/v1/mcp?source=Trae"
}
}
}
🔨 Ferramentas Disponíveis
O CORE Memory MCP fornece as seguintes ferramentas que LLMs podem usar:
memory_search: Busca contexto relevante no CORE Memory.memory_ingest: Adiciona um episódio ao CORE Memory.memory_about_user: Busca persona do usuário no CORE Memory.initialise_conversation_session: Inicializa conversa e atribui ID de sessão à conversa.get_integrations: Busca qual integração relevante deve ser usada das integrações conectadas.get_integrations_actions: Busca qual ferramenta das ferramentas de integração deve ser usada para a tarefa.execute_integrations_actions: Executa a ferramenta daquela integração.
Como Funciona
Ingestão de Memória
Quando você salva contexto no CORE, ele passa por quatro fases:
- Normalização: Vincula novas informações ao contexto recente, divide documentos em blocos coerentes mantendo referências cruzadas
- Extração: Identifica entidades (pessoas, ferramentas, projetos), cria declarações com contexto e tempo, mapeia relações
- Resolução: Detecta contradições, acompanha evolução de preferências, preserva múltiplas perspectivas com proveniência
- Integração ao Grafo: Conecta entidades, declarações e episódios em um grafo de conhecimento temporal
- Entidades:
CORE,Next.js - Declaração:
CORE foi desenvolvido usando Next.js - Relação:
foi desenvolvido usando
Recuperação de Memória
Quando você consulta o CORE:
- Pesquisa: Abordagem híbrida: palavra-chave + semântica + travessia de grafo
- Reclassificação: Destaca os resultados mais relevantes e diversos
- Filtro: Aplica filtros de tempo, confiabilidade e força de relacionamento
- Saída: Retorna fatos E os episódios de onde eles vieram
🛠️ Para Construtores de Agentes
Construindo agentes de IA? O CORE oferece infraestrutura de memória + infraestrutura de integrações para que você possa focar na lógica do seu agente.
O Que Você Recebe
Infraestrutura de Memória
- Grafo de conhecimento temporal com 88,24% de acurácia LoCoMo
- Busca híbrida: semântica + palavra-chave + travessia de grafo
- Acompanha evolução de contexto e contradições
- Conecte GitHub, Linear, Slack, Gmail uma vez só
- Seu agente recebe ferramentas MCP para todos os apps conectados
- Sem fluxos de OAuth para implementar, sem manutenção de API
Projetos de Exemplo
core-cli — Um agente gerenciador de tarefas que se conecta ao CORE para memória e sincroniza com Linear, GitHub Issues.
holo — Transforme sua memória CORE em um site pessoal com chat.
Recursos
- Referência da API
- Documentação do SDK
- Precisa de uma integração específica? Abra uma issue no GitHub
🔥 Destaques da Pesquisa
A memória CORE atinge 88,24% de precisão média no conjunto de dados Locomo em todas as tarefas de raciocínio, superando significativamente outros provedores de memória.
| Tipo de Tarefa | Descrição | |----------------|-----------| | Single-hop | Respostas baseadas em uma única sessão | | Multi-hop | Síntese de informações de várias sessões | | Domínio aberto | Integração de informações do usuário com conhecimento externo | | Raciocínio temporal | Indícios relacionados ao tempo e compreensão de sequência |
Veja a metodologia e resultados do benchmark →
🔒 Segurança
Certificado CASA Nível 2 — Auditado por terceiros para atender aos requisitos OAuth do Google.
- Criptografia: TLS 1.3 (em trânsito) + AES-256 (em repouso)
- Autenticação: OAuth 2.0 e link mágico
- Controle de acesso: Isolamento por espaço de trabalho, permissões baseadas em função
- Arquitetura zero-confiança: Nunca confie, sempre verifique
- Edite e exclua a qualquer momento
- Nunca usado para treinamento de modelo de IA
- Opção de auto-hospedagem para isolamento total
Relato de Vulnerabilidades: harshith@poozle.dev
Documentação
Explore nossa documentação para aproveitar ao máximo o CORE
🧑💻 Suporte
Tem dúvidas ou sugestões? Estamos aqui para ajudar:
- Discord: Acesse o canal core-support
- Documentação: docs.getcore.me
- E-mail: manik@poozle.dev
Diretrizes de Uso
Armazene:
- Histórico de conversas
- Preferências do usuário
- Contexto de tarefas
- Materiais de referência
- Dados sensíveis (PII)
- Credenciais
- Logs do sistema
- Dados temporários
👥 Colaboradores
--- Tranlated By Open Ai Tx | Last indexed: 2026-01-10 ---