🔥 Destaques da Pesquisa
A memória CORE alcança 88,24% de acurácia média no conjunto de dados Locomo em todas as tarefas de raciocínio, superando significativamente outros provedores de memória. Confira este blog para mais informações.
(1) Perguntas single-hop exigem respostas baseadas em uma única sessão; (2) Perguntas multi-hop exigem a síntese de informações de várias sessões diferentes; (3) Perguntas de conhecimento de domínio aberto podem ser respondidas integrando informações fornecidas pelo falante com conhecimento externo, como senso comum ou fatos mundiais; (4) Perguntas de raciocínio temporal podem ser respondidas através de raciocínio temporal e capturando sinais de dados relacionados ao tempo dentro da conversa;
Visão Geral
Problema
Desenvolvedores perdem tempo reexplicando contexto para ferramentas de IA. Atingiu o limite de tokens no Claude? Comece do zero e perca tudo. Mudou do ChatGPT/Claude para o Cursor? Explique seu contexto novamente. Suas conversas, decisões e insights desaparecem entre as sessões. A cada nova ferramenta de IA, o custo da troca de contexto aumenta.
Solução - CORE (Engine de Observação e Recuperação Contextual)
CORE é uma camada de memória unificada, persistente e de código aberto para todas as suas ferramentas de IA. Seu contexto te acompanha do Cursor ao Claude, do ChatGPT ao Claude Code. Um grafo de conhecimento lembra quem disse o quê, quando e por quê. Conecte uma vez, lembre-se em todo lugar. Pare de gerenciar contexto e comece a construir.
🚀 Auto-hospedagem do CORE
Quer rodar o CORE na sua própria infraestrutura? A auto-hospedagem te dá controle total sobre seus dados e implantação.Pré-requisitos:
- Docker (20.10.0+) e Docker Compose (2.20.0+) instalados
- Chave de API da OpenAI
Configuração
- Clone o repositório:
git clone https://github.com/RedPlanetHQ/core.git
cd core
- Configure as variáveis de ambiente em
core/.env:
OPENAI_API_KEY=your_openai_api_key
- Inicie o serviço
docker-compose up -dDepois de implantado, você pode configurar seus provedores de IA (OpenAI, Anthropic) e começar a construir seu grafo de memória.
👉 Veja o guia completo de auto-hospedagem
Nota: Testamos modelos open-source como Ollama ou GPT OSS, mas a geração de fatos não foi boa. Ainda estamos buscando melhorias e, então, também ofereceremos suporte a modelos OSS.
🚀 CORE Cloud
Construa seu grafo de memória unificado em 5 minutos:Não quer gerenciar infraestrutura? O CORE Cloud permite criar seu sistema pessoal de memória instantaneamente - sem configuração, sem servidores, apenas memória que funciona.
- Cadastre-se em core.heysol.ai e crie sua conta
- Visualize seu grafo de memória e veja como o CORE conecta fatos automaticamente
- Teste - pergunte "O que você sabe sobre mim?" na seção de conversas
- Conecte às suas ferramentas:
- Claude & Cursor - programação com contexto
- CLaude Code CLI & Codex CLI - programação no terminal com memória
- Adicionar extensão de navegador - leve sua memória para qualquer site
- Linear, Github - adicione contexto de projeto automaticamente
🧩 Principais Funcionalidades
🧠 Memória Unificada e Portátil:
Adicione e recupere sua memória em Cursor, Windsurf, Claude Desktop, Claude Code, Gemini CLI, Kiro da AWS, VS Code e Roo Code via MCP🕸️ Grafo de Conhecimento Temporal + Reificado:
Lembre-se da história por trás de cada fato—acompanhe quem disse o quê, quando e por quê, com relacionamentos ricos e proveniência completa, não apenas armazenamento plano
🌐 Extensão de Navegador:
Salve conversas e conteúdos do ChatGPT, Grok, Gemini, Twitter, YouTube, posts de blogs e qualquer página diretamente na sua memória CORE.
Como Usar a Extensão
- Baixe a Extensão na Chrome Web Store.
- Faça login no dashboard do CORE
- Navegue até Configurações (canto inferior esquerdo)
- Vá para Chave de API → Gerar nova chave → Nomeie como “extensão.”
- Abra a extensão, cole sua chave de API e salve.
💬 Conversar com Memória:
Faça perguntas como "Quais são minhas preferências de escrita?" com insights instantâneos do seu conhecimento conectado⚡ Sincronização Automática de Apps:
Capture automaticamente contexto relevante do Linear, Slack, Notion, GitHub e outros apps conectados na sua memória CORE
📖 Ver Todas as Integrações - Lista completa de serviços suportados e seus recursos
🔗 Hub de Integração MCP:
Conecte Linear, Slack, GitHub, Notion uma vez ao CORE—depois use todas as ferramentas deles no Claude, Cursor, ou qualquer cliente MCP com uma única URL
Como o CORE cria memória
O pipeline de ingestão do CORE possui quatro fases projetadas para capturar o contexto em evolução:
- Normalização: Vincula novas informações ao contexto recente, divide documentos longos em blocos coerentes mantendo referências cruzadas e padroniza termos para que, quando o CORE extrair conhecimento, esteja trabalhando com uma entrada limpa e contextualizada em vez de texto confuso.
- Extração: Extrai significado do texto normalizado identificando entidades (pessoas, ferramentas, projetos, conceitos), transformando-as em declarações com contexto, fonte e tempo, e mapeando relacionamentos. Por exemplo, “Nós escrevemos o CORE em Next.js” vira: Entidades (Core, Next.js), Declaração (CORE foi desenvolvido usando Next.js) e Relacionamento (foi desenvolvido usando).
- Resolução: Detecta contradições, rastreia como preferências evoluem e preserva múltiplas perspectivas com proveniência em vez de sobrescrevê-las, para que a memória reflita toda a sua jornada, não apenas o último instantâneo.
- Integração ao Grafo: Conecta entidades, declarações e episódios em um grafo temporal de conhecimento que vincula fatos ao seu contexto e histórico, transformando dados isolados em uma teia viva de conhecimento realmente utilizável por agentes.
Como o CORE recupera da memória
Quando você faz uma pergunta ao CORE, ele não apenas busca texto – ele explora todo o seu grafo de conhecimento para encontrar as respostas mais úteis.
- Busca: O CORE examina a memória de vários ângulos ao mesmo tempo – busca por palavra-chave para correspondências exatas, busca semântica para ideias relacionadas mesmo que formuladas diferente, e travessia de grafo para seguir links entre conceitos conectados.
- Reclassificação: Os resultados obtidos são reordenados para destacar os mais relevantes e diversos, garantindo que você veja não só as correspondências óbvias, mas também conexões mais profundas.
- Filtragem: O CORE aplica filtros inteligentes baseados em tempo, confiabilidade e força de relacionamento, para que só o conhecimento mais significativo seja exibido.
- Saída: Você recebe tanto fatos (declarações claras) quanto episódios (o contexto original de onde vieram), então o resgate está sempre fundamentado em contexto, tempo e narrativa.
Documentação
Explore nossa documentação para aproveitar ao máximo o CORE
- Conceitos Básicos
- Auto-hospedagem
- Conecte Core MCP ao Claude
- Conecte Core MCP ao Cursor
- Conecte Core MCP ao Claude Code
- Conecte Core MCP ao Codex
- Conceitos Básicos
- Referência da API
🔒 Segurança
O CORE leva a segurança a sério. Implementamos práticas de segurança padrão da indústria para proteger seus dados:
- Criptografia de Dados: Todos os dados em trânsito (TLS 1.3) e em repouso (AES-256)
- Autenticação: OAuth 2.0 e autenticação por link mágico
- Controle de Acesso: Isolamento baseado em workspace e permissões baseadas em função
- Relato de Vulnerabilidades: Por favor, reporte problemas de segurança para harshith@poozle.dev
🧑💻 Suporte
Tem perguntas ou sugestões? Estamos aqui para ajudar:
- Discord: Entre no canal core-support
- Documentação: docs.heysol.ai
- E-mail: manik@poozle.dev
Diretrizes de Uso
Armazene:
- Histórico de conversas
- Preferências do usuário
- Contexto de tarefas
- Materiais de referência
- Dados sensíveis (PII)
- Credenciais
- Logs do sistema
- Dados temporários
👥 Contribuidores
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-16 ---