🔥 Nổi bật nghiên cứu
CORE memory đạt 88,24% độ chính xác trung bình trên bộ dữ liệu Locomo cho tất cả các tác vụ suy luận, vượt trội đáng kể so với các nhà cung cấp bộ nhớ khác. Xem thêm tại blog này để biết thêm thông tin.
(1) Câu hỏi đơn tuyến yêu cầu trả lời dựa trên một phiên duy nhất; (2) Câu hỏi đa tuyến yêu cầu tổng hợp thông tin từ nhiều phiên khác nhau; (3) Câu hỏi kiến thức miền mở có thể trả lời bằng cách tích hợp thông tin người nói cung cấp với kiến thức bên ngoài như kiến thức thường thức hoặc sự kiện thế giới; (4) Câu hỏi suy luận thời gian có thể trả lời thông qua suy luận thời gian và nắm bắt các dữ liệu liên quan đến thời gian trong hội thoại;
Tổng quan
Vấn đề
Nhà phát triển tốn thời gian giải thích lại bối cảnh cho các công cụ AI. Gặp giới hạn token ở Claude? Bắt đầu lại và mất toàn bộ dữ liệu. Chuyển từ ChatGPT/Claude sang Cursor? Lại phải giải thích lại bối cảnh. Các cuộc trò chuyện, quyết định và nhận định bị mất giữa các phiên. Với mỗi công cụ AI mới, chi phí chuyển đổi ngữ cảnh ngày càng tăng.
Giải pháp - CORE (Contextual Observation & Recall Engine)
CORE là lớp bộ nhớ hợp nhất, liên tục, mã nguồn mở cho tất cả công cụ AI của bạn. Bối cảnh của bạn sẽ di chuyển từ Cursor sang Claude, ChatGPT đến Claude Code. Một đồ thị tri thức ghi nhớ ai nói gì, khi nào và tại sao. Kết nối một lần, ghi nhớ mọi nơi. Ngừng quản lý ngữ cảnh và bắt đầu xây dựng.
🚀 Tự triển khai CORE
Muốn chạy CORE trên hạ tầng của riêng bạn? Tự triển khai giúp bạn kiểm soát hoàn toàn dữ liệu và cách triển khai.Yêu cầu trước:
- Đã cài đặt Docker (20.10.0+) và Docker Compose (2.20.0+)
- Có khóa API OpenAI
Thiết lập
- Sao chép kho lưu trữ:
git clone https://github.com/RedPlanetHQ/core.git
cd core
- Cấu hình biến môi trường trong
core/.env:
OPENAI_API_KEY=your_openai_api_key
- Khởi động dịch vụ
docker-compose up -d
Khi đã triển khai, bạn có thể cấu hình các nhà cung cấp AI (OpenAI, Anthropic) và bắt đầu xây dựng đồ thị bộ nhớ của mình.👉 Xem hướng dẫn tự triển khai đầy đủ
Lưu ý: Chúng tôi đã thử các mô hình nguồn mở như Ollama hoặc GPT OSS nhưng kết quả tạo dữ kiện chưa tốt, chúng tôi vẫn đang nghiên cứu cải thiện và sẽ hỗ trợ các mô hình OSS khi ổn định.
🚀 CORE Cloud
Xây dựng đồ thị bộ nhớ hợp nhất chỉ trong 5 phút:Không muốn quản lý hạ tầng? CORE Cloud cho phép bạn xây dựng hệ thống bộ nhớ cá nhân ngay lập tức - không cài đặt, không máy chủ, chỉ cần bộ nhớ hoạt động.
- Đăng ký tại core.heysol.ai và tạo tài khoản
- Trực quan hóa đồ thị bộ nhớ và xem cách CORE tự động kết nối các dữ kiện với nhau
- Thử nghiệm - hỏi "Bạn biết gì về tôi?" ở mục trò chuyện
- Kết nối với các công cụ của bạn:
- Claude & Cursor - lập trình có ngữ cảnh
- Claude Code CLI & Codex CLI - lập trình dựa trên terminal với bộ nhớ
- Thêm tiện ích trình duyệt - mang bộ nhớ đến mọi website
- Linear, Github - tự động thêm ngữ cảnh dự án
🧩 Tính năng chính
🧠 Bộ nhớ hợp nhất, di động:
Thêm và truy xuất bộ nhớ trên Cursor, Windsurf, Claude Desktop, Claude Code, Gemini CLI, AWS's Kiro, VS Code và Roo Code thông qua MCP🕸️ Đồ thị tri thức thời gian + hiện thực hóa:
Ghi nhớ câu chuyện đằng sau mỗi dữ kiện—theo dõi ai nói gì, khi nào và tại sao với các mối quan hệ phong phú và nguồn gốc đầy đủ, không chỉ lưu trữ phẳng
🌐 Tiện ích mở rộng trình duyệt:
Lưu hội thoại và nội dung từ ChatGPT, Grok, Gemini, Twitter, YouTube, bài đăng blog và bất kỳ trang web nào trực tiếp vào bộ nhớ CORE của bạn.
Cách sử dụng tiện ích mở rộng
- Tải tiện ích mở rộng từ Chrome Web Store.
- Đăng nhập vào bảng điều khiển CORE
- Điều hướng đến Cài đặt (góc dưới bên trái)
- Vào Khóa API → Tạo khóa mới → Đặt tên là “extension.”
- Mở tiện ích mở rộng, dán khóa API của bạn và lưu lại.
💬 Trò chuyện với Bộ nhớ:
Đặt câu hỏi như "Sở thích viết của tôi là gì?" và nhận phản hồi tức thì từ kiến thức đã kết nối của bạn⚡ Đồng bộ hóa tự động từ các ứng dụng:
Tự động thu thập ngữ cảnh liên quan từ Linear, Slack, Notion, GitHub và các ứng dụng đã kết nối khác vào bộ nhớ CORE của bạn
📖 Xem tất cả tích hợp - Danh sách đầy đủ các dịch vụ được hỗ trợ và tính năng của chúng
🔗 Trung tâm tích hợp MCP:
Kết nối Linear, Slack, GitHub, Notion một lần với CORE—sau đó sử dụng mọi công cụ của họ trong Claude, Cursor, hoặc bất kỳ khách hàng MCP nào chỉ với một URL duy nhất
Cách CORE tạo bộ nhớ
Quy trình nạp dữ liệu của CORE có bốn giai đoạn được thiết kế để thu thập ngữ cảnh thay đổi:
- Chuẩn hóa: Liên kết thông tin mới với ngữ cảnh gần đây, chia tài liệu dài thành các đoạn mạch lạc đồng thời giữ các tham chiếu chéo, và chuẩn hóa thuật ngữ để khi CORE trích xuất tri thức, nó đang làm việc với đầu vào sạch, có ngữ cảnh thay vì văn bản lộn xộn.
- Trích xuất: Rút ra ý nghĩa từ văn bản đã chuẩn hóa bằng cách nhận diện thực thể (con người, công cụ, dự án, khái niệm), chuyển thành phát biểu với ngữ cảnh, nguồn và thời gian, và lập bản đồ quan hệ. Ví dụ, “Chúng tôi viết CORE bằng Next.js” thành: Thực thể (Core, Next.js), Phát biểu (CORE được phát triển bằng Next.js), và Quan hệ (được phát triển bằng).
- Giải quyết: Phát hiện mâu thuẫn, theo dõi sự thay đổi của sở thích, và bảo toàn nhiều góc nhìn với nguồn gốc thay vì ghi đè, để bộ nhớ phản ánh toàn bộ hành trình của bạn chứ không chỉ khoảnh khắc mới nhất.
- Tích hợp đồ thị: Kết nối thực thể, phát biểu, và tập diễn ra thành một đồ thị tri thức theo thời gian liên kết sự kiện với ngữ cảnh và lịch sử, biến dữ liệu rời rạc thành mạng tri thức sống mà các agent có thể sử dụng.
Cách CORE truy xuất từ bộ nhớ
Khi bạn hỏi CORE một câu, nó không chỉ tra cứu văn bản - nó đào sâu vào toàn bộ đồ thị tri thức để tìm câu trả lời hữu ích nhất.
- Tìm kiếm: CORE quét bộ nhớ từ nhiều góc cùng lúc - tìm kiếm theo từ khóa cho các kết quả chính xác, tìm kiếm ngữ nghĩa cho ý liên quan dù diễn đạt khác, và duyệt đồ thị để đi theo các liên kết giữa khái niệm.
- Xếp hạng lại: Các kết quả truy xuất được sắp xếp lại để làm nổi bật các kết quả liên quan nhất và đa dạng nhất, đảm bảo bạn không chỉ thấy các kết quả rõ ràng mà còn cả các kết nối sâu hơn.
- Lọc: CORE áp dụng bộ lọc thông minh dựa trên thời gian, độ tin cậy và độ mạnh mối quan hệ, chỉ làm nổi bật tri thức ý nghĩa nhất.
- Đầu ra: Bạn nhận cả sự kiện (phát biểu rõ ràng) lẫn tập diễn ra (ngữ cảnh gốc của chúng), để việc truy xuất luôn dựa trên ngữ cảnh, thời gian và câu chuyện.
Tài liệu
Khám phá tài liệu để tận dụng tối đa CORE
- Khái niệm cơ bản
- Tự triển khai
- Kết nối Core MCP với Claude
- Kết nối Core MCP với Cursor
- Kết nối Core MCP với Claude Code
- Kết nối Core MCP với Codex
- Khái niệm cơ bản
- Tham chiếu API
🔒 Bảo mật
CORE rất chú trọng đến bảo mật. Chúng tôi áp dụng các thực hành bảo mật tiêu chuẩn ngành để bảo vệ dữ liệu của bạn:
- Mã hóa dữ liệu: Tất cả dữ liệu khi truyền (TLS 1.3) và khi lưu trữ (AES-256)
- Xác thực: OAuth 2.0 và xác thực bằng liên kết ma thuật
- Kiểm soát truy cập: Cách ly theo không gian làm việc và phân quyền theo vai trò
- Báo cáo lỗ hổng: Vui lòng báo cáo các vấn đề bảo mật tới harshith@poozle.dev
🧑💻 Hỗ trợ
Có câu hỏi hoặc góp ý? Chúng tôi sẵn sàng hỗ trợ:
- Discord: Tham gia kênh core-support
- Tài liệu: docs.heysol.ai
- Email: manik@poozle.dev
Nguyên tắc sử dụng
Lưu trữ:
- Lịch sử hội thoại
- Tùy chọn người dùng
- Ngữ cảnh nhiệm vụ
- Tài liệu tham khảo
- Dữ liệu nhạy cảm (PII)
- Thông tin đăng nhập
- Nhật ký hệ thống
- Dữ liệu tạm thời
👥 Người đóng góp
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-16 ---