🔥 Sorotan Riset
Memori CORE mencapai 88,24% akurasi rata-rata pada dataset Locomo di semua tugas penalaran, secara signifikan mengungguli penyedia memori lainnya. Lihat blog ini untuk info lebih lanjut.
(1) Pertanyaan single-hop memerlukan jawaban berdasarkan satu sesi; (2) Pertanyaan multi-hop membutuhkan sintesis informasi dari beberapa sesi berbeda; (3) Pertanyaan pengetahuan domain terbuka dapat dijawab dengan mengintegrasikan informasi yang diberikan pembicara dan pengetahuan eksternal seperti pengetahuan umum atau fakta dunia; (4) Pertanyaan penalaran temporal dapat dijawab melalui penalaran temporal dan penangkapan petunjuk data terkait waktu dalam percakapan;
Ikhtisar
Masalah
Pengembang membuang waktu untuk menjelaskan ulang konteks ke alat AI. Terbatas token di Claude? Mulai ulang dan kehilangan segalanya. Pindah dari ChatGPT/Claude ke Cursor? Jelaskan lagi konteks Anda. Percakapan, keputusan, dan wawasan Anda hilang di antara sesi. Dengan setiap alat AI baru, biaya perpindahan konteks semakin besar.
Solusi - CORE (Contextual Observation & Recall Engine)
CORE adalah lapisan memori terpadu dan persisten open-source untuk semua alat AI Anda. Konteks Anda mengikuti dari Cursor ke Claude ke ChatGPT ke Claude Code. Satu knowledge graph mengingat siapa berkata apa, kapan, dan mengapa. Hubungkan sekali, ingat di mana saja. Berhenti mengelola konteks dan mulai membangun.
🚀 CORE Self-Hosting
Ingin menjalankan CORE di infrastruktur Anda sendiri? Self-hosting memberi Anda kontrol penuh atas data dan penerapan.Prasyarat:
- Docker (20.10.0+) dan Docker Compose (2.20.0+) sudah terpasang
- OpenAI API key
Penyiapan
- Clone repository:
git clone https://github.com/RedPlanetHQ/core.git
cd core
- Konfigurasikan variabel lingkungan di
core/.env:
OPENAI_API_KEY=your_openai_api_key
- Mulai layanan
docker-compose up -dSetelah diterapkan, Anda dapat mengonfigurasi penyedia AI Anda (OpenAI, Anthropic) dan mulai membangun grafik memori Anda.
👉 Lihat panduan self-hosting lengkap
Catatan: Kami telah mencoba model open-source seperti Ollama atau GPT OSS tetapi pembuatan fakta belum bagus, kami masih mencari cara untuk meningkatkannya dan nantinya juga akan mendukung model OSS.
🚀 CORE Cloud
Bangun grafik memori terpadu Anda dalam 5 menit:Tidak ingin mengelola infrastruktur? CORE Cloud memungkinkan Anda membangun sistem memori pribadi secara instan - tanpa pengaturan, tanpa server, hanya memori yang langsung berfungsi.
- Daftar di core.heysol.ai dan buat akun Anda
- Visualisasikan grafik memori Anda dan lihat bagaimana CORE secara otomatis membentuk koneksi antar fakta
- Coba - tanyakan "Apa yang kamu ketahui tentang saya?" di bagian percakapan
- Hubungkan ke alat Anda:
- Claude & Cursor - coding dengan konteks
- CLaude Code CLI & Codex CLI - coding berbasis terminal dengan memori
- Tambahkan Ekstensi Browser - bawa memori Anda ke situs web mana saja
- Linear, Github - tambahkan konteks proyek secara otomatis
🧩 Fitur Utama
🧠 Memori Terpadu dan Portabel:
Tambahkan dan panggil memori Anda di Cursor, Windsurf, Claude Desktop, Claude Code, Gemini CLI, AWS's Kiro, VS Code, dan Roo Code melalui MCP🕸️ Grafik Pengetahuan Temporal + Reifikasi:
Ingat cerita di balik setiap fakta—lacak siapa yang mengatakan apa, kapan, dan mengapa dengan relasi yang kaya dan asal-usul penuh, bukan hanya penyimpanan datar
🌐 Ekstensi Browser:
Simpan percakapan dan konten dari ChatGPT, Grok, Gemini, Twitter, YouTube, posting blog, dan halaman web apa pun langsung ke memori CORE Anda.
Cara Menggunakan Ekstensi
- Unduh Ekstensi dari Chrome Web Store.
- Login ke dashboard CORE
- Arahkan ke Pengaturan (pojok kiri bawah)
- Masuk ke API Key → Buat kunci baru → Beri nama “extension.”
- Buka ekstensi, tempelkan API key Anda, lalu simpan.
💬 Obrolan dengan Memori:
Ajukan pertanyaan seperti "Apa preferensi penulisan saya?" dengan wawasan instan dari pengetahuan yang terhubung⚡ Sinkronisasi Otomatis dari Aplikasi:
Secara otomatis menangkap konteks relevan dari Linear, Slack, Notion, GitHub dan aplikasi terhubung lainnya ke memori CORE Anda
📖 Lihat Semua Integrasi - Daftar lengkap layanan yang didukung dan fitur-fiturnya
🔗 Hub Integrasi MCP:
Hubungkan Linear, Slack, GitHub, Notion sekali ke CORE—lalu gunakan semua alat mereka di Claude, Cursor, atau klien MCP mana pun dengan satu URL
Cara CORE membuat memori
Pipeline ingestion CORE memiliki empat fase yang dirancang untuk menangkap konteks yang terus berkembang:
- Normalisasi: Menghubungkan informasi baru ke konteks terbaru, membagi dokumen panjang menjadi bagian-bagian yang koheren sambil menjaga referensi silang, dan menstandarisasi istilah sehingga saat CORE mengekstrak pengetahuan, ia bekerja dengan masukan yang bersih dan terkontekstualisasi, bukan teks yang berantakan.
- Ekstraksi: Mengambil makna dari teks yang telah dinormalisasi dengan mengidentifikasi entitas (orang, alat, proyek, konsep), mengubahnya menjadi pernyataan dengan konteks, sumber, dan waktu, serta memetakan hubungan. Contohnya, “Kami menulis CORE di Next.js” menjadi: Entitas (Core, Next.js), Pernyataan (CORE dikembangkan menggunakan Next.js), dan Hubungan (dikembangkan menggunakan).
- Resolusi: Mendeteksi kontradiksi, melacak bagaimana preferensi berkembang, dan menjaga berbagai perspektif beserta asal-usulnya daripada menimpanya, sehingga memori mencerminkan seluruh perjalanan Anda, bukan hanya cuplikan terbaru.
- Integrasi Grafik: Menghubungkan entitas, pernyataan, dan episode ke dalam grafik pengetahuan temporal yang mengaitkan fakta dengan konteks dan sejarahnya, mengubah data terisolasi menjadi jaringan pengetahuan hidup yang benar-benar dapat digunakan oleh agen.
Bagaimana CORE mengingat dari memori
Saat Anda menanyakan sesuatu ke CORE, ia tidak hanya mencari teks - ia menggali seluruh grafik pengetahuan Anda untuk menemukan jawaban paling berguna.
- Pencarian: CORE menelusuri memori dari berbagai sudut sekaligus - pencarian kata kunci untuk kecocokan tepat, pencarian semantik untuk ide terkait meski diungkapkan berbeda, dan penelusuran grafik untuk mengikuti tautan antar konsep yang terhubung.
- Penilaian Ulang: Hasil yang ditemukan diurutkan ulang untuk menyoroti yang paling relevan dan beragam, memastikan Anda tidak hanya melihat kecocokan jelas tetapi juga hubungan yang lebih dalam.
- Penyaringan: CORE menerapkan filter cerdas berdasarkan waktu, reliabilitas, dan kekuatan hubungan, sehingga hanya pengetahuan paling bermakna yang muncul.
- Keluaran: Anda mendapatkan kembali fakta (pernyataan jelas) dan episode (konteks asli dari mana mereka berasal), sehingga ingatan selalu berpijak pada konteks, waktu, dan cerita.
Dokumentasi
Jelajahi dokumentasi kami untuk memaksimalkan penggunaan CORE
- Konsep Dasar
- Self Hosting
- Hubungkan Core MCP dengan Claude
- Hubungkan Core MCP dengan Cursor
- Hubungkan Core MCP dengan Claude Code
- Hubungkan Core MCP dengan Codex
- Konsep Dasar
- Referensi API
🔒 Keamanan
CORE sangat memperhatikan keamanan. Kami menerapkan praktik keamanan standar industri untuk melindungi data Anda:
- Enkripsi Data: Semua data saat transit (TLS 1.3) dan saat disimpan (AES-256)
- Otentikasi: OAuth 2.0 dan otentikasi tautan ajaib
- Kontrol Akses: Isolasi berbasis ruang kerja dan izin berbasis peran
- Pelaporan Kerentanan: Silakan laporkan masalah keamanan ke harshith@poozle.dev
🧑💻 Dukungan
Punya pertanyaan atau masukan? Kami siap membantu:
- Discord: Bergabung dengan channel core-support
- Dokumentasi: docs.heysol.ai
- Email: manik@poozle.dev
Panduan Penggunaan
Simpan:
- Riwayat percakapan
- Preferensi pengguna
- Konteks tugas
- Materi referensi
- Data sensitif (PII)
- Kredensial
- Log sistem
- Data sementara
👥 Kontributor
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-16 ---