🔥 Risultati della Ricerca
La memoria CORE raggiunge una precisione media del 88,24% sul dataset Locomo in tutti i compiti di ragionamento, superando significativamente altri fornitori di memoria. Consulta questo blog per ulteriori informazioni.
(1) Le domande single-hop richiedono risposte basate su una singola sessione; (2) Le domande multi-hop richiedono di sintetizzare informazioni da più sessioni diverse; (3) Le domande di conoscenza open-domain possono essere risposte integrando le informazioni fornite dal parlante con conoscenze esterne come il senso comune o fatti mondiali; (4) Le domande di ragionamento temporale possono essere risposte tramite ragionamento temporale e cattura di indizi relativi al tempo all’interno della conversazione;
Panoramica
Problema
Gli sviluppatori perdono tempo a rispiegare il contesto agli strumenti AI. Superi i limiti di token su Claude? Ricominci da capo e perdi tutto. Passi da ChatGPT/Claude a Cursor? Spiega di nuovo il tuo contesto. Le tue conversazioni, decisioni e intuizioni svaniscono tra le sessioni. Con ogni nuovo strumento AI, il costo del cambio di contesto aumenta.
Soluzione - CORE (Contextual Observation & Recall Engine)
CORE è un layer di memoria unificato e persistente open-source per tutti i tuoi strumenti AI. Il tuo contesto ti segue da Cursor a Claude, da ChatGPT a Claude Code. Un unico knowledge graph ricorda chi ha detto cosa, quando e perché. Connettiti una volta, ricorda ovunque. Smetti di gestire il contesto e inizia a costruire.
🚀 CORE Self-Hosting
Vuoi eseguire CORE sulla tua infrastruttura? L’auto-hosting ti offre il pieno controllo sui tuoi dati e sul deployment.Prerequisiti:
- Docker (20.10.0+) e Docker Compose (2.20.0+) installati
- Chiave API OpenAI
Installazione
- Clona il repository:
git clone https://github.com/RedPlanetHQ/core.git
cd core
- Configura le variabili d'ambiente in
core/.env:
OPENAI_API_KEY=your_openai_api_key
- Avvia il servizio
docker-compose up -dUna volta effettuato il deployment, puoi configurare i tuoi provider AI (OpenAI, Anthropic) e iniziare a costruire il tuo grafo di memoria.
👉 Visualizza la guida completa per l’auto-hosting
Nota: Abbiamo provato modelli open-source come Ollama o GPT OSS, ma la generazione dei fatti non era soddisfacente; stiamo ancora cercando di migliorare questo aspetto e in seguito supporteremo anche i modelli OSS.
🚀 CORE Cloud
Costruisci il tuo grafo di memoria unificato in 5 minuti:Non vuoi gestire l’infrastruttura? CORE Cloud ti permette di creare istantaneamente il tuo sistema personale di memoria: nessuna configurazione, nessun server, solo memoria che funziona.
- Registrati su core.heysol.ai e crea il tuo account
- Visualizza il tuo grafo di memoria e osserva come CORE connette automaticamente i fatti tra loro
- Provalo - chiedi "Cosa sai di me?" nella sezione conversazione
- Collega i tuoi strumenti:
- Claude & Cursor - coding contestualizzato
- CLaude Code CLI & Codex CLI - coding da terminale con memoria
- Aggiungi Estensione Browser - porta la tua memoria su qualsiasi sito web
- Linear, Github - aggiungi automaticamente il contesto dei progetti
🧩 Funzionalità Chiave
🧠 Memoria Unificata e Portatile:
Aggiungi e richiama la tua memoria su Cursor, Windsurf, Claude Desktop, Claude Code, Gemini CLI, AWS Kiro, VS Code e Roo Code tramite MCP🕸️ Grafo di Conoscenza Temporale e Reificato:
Ricorda la storia dietro ogni fatto—traccia chi ha detto cosa, quando e perché con relazioni ricche e piena provenienza, non solo archiviazione piatta
🌐 Estensione Browser:
Salva conversazioni e contenuti da ChatGPT, Grok, Gemini, Twitter, YouTube, post di blog e qualsiasi pagina web direttamente nella tua memoria CORE.
Come utilizzare l'estensione
- Scarica l'estensione dal Chrome Web Store.
- Accedi al dashboard CORE
- Vai su Impostazioni (in basso a sinistra)
- Vai su API Key → Genera nuova chiave → Chiamala “estensione.”
- Apri l'estensione, incolla la tua chiave API e salva.
💬 Chatta con la Memoria:
Fai domande come "Quali sono le mie preferenze di scrittura?" e ricevi informazioni immediate dalla tua conoscenza collegata⚡ Sincronizzazione automatica dalle app:
Cattura automaticamente il contesto rilevante da Linear, Slack, Notion, GitHub e altre app connesse nella tua memoria CORE
📖 Visualizza tutte le integrazioni - Elenco completo dei servizi supportati e delle loro funzionalità
🔗 MCP Integration Hub:
Collega Linear, Slack, GitHub, Notion una sola volta a CORE—poi usa tutti i loro strumenti in Claude, Cursor, o qualsiasi client MCP con un singolo URL
Come CORE crea memoria
La pipeline di ingestione di CORE ha quattro fasi progettate per catturare il contesto in evoluzione:
- Normalizzazione: Collega le nuove informazioni al contesto recente, suddivide i documenti lunghi in blocchi coerenti mantenendo i riferimenti incrociati e standardizza i termini, così quando CORE estrae conoscenza, lavora con input puliti e contestualizzati invece che con testo disordinato.
- Estrazione: Ricava significato dal testo normalizzato identificando entità (persone, strumenti, progetti, concetti), trasformandole in affermazioni con contesto, fonte e tempo, e mappando le relazioni. Ad esempio, “Abbiamo scritto CORE in Next.js” diventa: Entità (Core, Next.js), Affermazione (CORE è stato sviluppato usando Next.js) e Relazione (è stato sviluppato usando).
- Risoluzione: Rileva contraddizioni, traccia come evolvono le preferenze e preserva molteplici prospettive con provenienza invece di sovrascriverle, così la memoria riflette il tuo percorso completo, non solo l'istantanea più recente.
- Integrazione nel Grafo: Collega entità, affermazioni ed episodi in un grafo di conoscenza temporale che unisce i fatti al loro contesto e alla loro storia, trasformando dati isolati in una rete vivente di conoscenza che gli agenti possono effettivamente usare.
Come CORE richiama dalla memoria
Quando chiedi qualcosa a CORE, non si limita a cercare testo - esplora l'intero grafo di conoscenza per trovare le risposte più utili.
- Ricerca: CORE esplora la memoria da più angolazioni contemporaneamente - ricerca per parola chiave per corrispondenze esatte, ricerca semantica per idee correlate anche se espresse diversamente, e attraversamento del grafo per seguire i collegamenti tra concetti connessi.
- Riordinamento: I risultati recuperati vengono riorganizzati per evidenziare quelli più rilevanti e diversi, garantendo che tu non veda solo corrispondenze ovvie ma anche connessioni più profonde.
- Filtraggio: CORE applica filtri intelligenti basati su tempo, affidabilità e forza della relazione, così emergono solo le conoscenze più significative.
- Output: Ricevi sia fatti (affermazioni chiare) che episodi (il contesto originale da cui provengono), così il richiamo è sempre ancorato a contesto, tempo e storia.
Documentazione
Esplora la nostra documentazione per sfruttare al meglio CORE
- Concetti di base
- Self Hosting
- Collega Core MCP con Claude
- Collega Core MCP con Cursor
- Collega Core MCP con Claude Code
- Collega Core MCP con Codex
- Concetti di base
- Riferimento API
🔒 Sicurezza
CORE prende la sicurezza sul serio. Implementiamo pratiche di sicurezza standard del settore per proteggere i tuoi dati:
- Crittografia dei dati: Tutti i dati in transito (TLS 1.3) e a riposo (AES-256)
- Autenticazione: OAuth 2.0 e autenticazione tramite magic link
- Controllo degli accessi: Isolamento basato su workspace e permessi basati sui ruoli
- Segnalazione delle vulnerabilità: Si prega di segnalare i problemi di sicurezza a harshith@poozle.dev
🧑💻 Supporto
Hai domande o feedback? Siamo qui per aiutarti:
- Discord: Unisciti al canale core-support
- Documentazione: docs.heysol.ai
- Email: manik@poozle.dev
Linee guida sull'utilizzo
Memorizzare:
- Cronologia delle conversazioni
- Preferenze utente
- Contesto dei task
- Materiali di riferimento
- Dati sensibili (PII)
- Credenziali
- Log di sistema
- Dati temporanei
👥 Collaboratori
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-16 ---