🔥 研究ハイライト
COREメモリはLocomoデータセットの全推論タスクで平均88.24%の精度を達成し、他のメモリプロバイダーを大きく上回りました。詳細はブログをご覧ください。
(1) シングルホップ質問は1つのセッションに基づいて回答されます;(2) マルチホップ質問は複数の異なるセッションから情報を統合して回答します;(3) オープンドメイン知識質問は話者が提供した情報と外部知識(常識や世界の事実など)を統合して回答できます;(4) 時間推論質問は会話内の時系列データ手がかりを捉えることで時間推論によって回答されます;
概要
問題点
開発者はAIツールに文脈を何度も説明するのに時間を浪費しています。Claudeでトークン上限に達すると、最初からやり直してすべて失います。ChatGPT/ClaudeからCursorへ切り替えたら、また文脈を説明し直さなければなりません。会話、決定、洞察はセッション間で消えてしまいます。新しいAIツールを使うたびに、コンテキスト切り替えのコストが増大します。
解決策 - CORE(Contextual Observation & Recall Engine)
COREはすべてのAIツール向けのオープンソース統合型・永続型メモリレイヤーです。あなたの文脈はCursorからClaude、ChatGPT、Claude Codeへと引き継がれます。一つのナレッジグラフが「誰が、いつ、何を、なぜ」話したかを記憶します。一度接続すれば、どこでも記憶。文脈管理はやめて、構築を始めましょう。
🚀 COREセルフホスティング
COREを自分のインフラで稼働させたいですか?セルフホスティングなら、データと運用を完全にコントロールできます。前提条件:
- Docker(20.10.0以上)およびDocker Compose(2.20.0以上)がインストール済み
- OpenAI APIキー
セットアップ
- リポジトリをクローンします:
git clone https://github.com/RedPlanetHQ/core.git
cd core
core/.envで環境変数を設定します。
OPENAI_API_KEY=your_openai_api_key
- サービスを開始します
docker-compose up -dデプロイが完了したら、AIプロバイダー(OpenAI、Anthropic)の設定を行い、メモリーグラフの構築を開始できます。
注意: OllamaやGPT OSSなどのオープンソースモデルを試しましたが、事実生成の精度が低かったため、現在も改善方法を模索しています。改善でき次第、OSSモデルもサポート予定です。
🚀 CORE Cloud
5分で統合メモリーグラフを構築:インフラ管理をしたくない場合は、CORE Cloudで即座に個人用メモリーシステムを構築可能—セットアップ不要、サーバー不要、ただ使えるメモリー。
- core.heysol.aiでサインアップし、アカウントを作成
- メモリーグラフを可視化し、COREが事実間の接続を自動で形成する様子を確認
- テスト実施—会話セクションで「私について知っていることは?」と質問
- ツールと連携:
- Claude & Cursor — 文脈を活用したコーディング
- Claude Code CLI & Codex CLI — メモリー搭載のターミナルコーディング
- ブラウザー拡張機能追加 — メモリーを任意のウェブサイトで活用
- Linear、Github — プロジェクト文脈を自動追加
🧩 主な機能
🧠 統合・ポータブルメモリー:
Cursor、Windsurf、Claude Desktop、Claude Code、Gemini CLI、AWSのKiro、VS Code、Roo CodeでMCPを介してメモリーの追加と呼び出しが可能🕸️ 時系列+具体化ナレッジグラフ:
すべての事実の背景ストーリーを記憶—誰が、いつ、なぜ発言したかを豊かな関係性と完全な来歴で追跡し、単なる平面的な保存ではない
🌐 ブラウザー拡張機能:
ChatGPT、Grok、Gemini、Twitter、YouTube、ブログ記事、任意のウェブページの会話とコンテンツを直接COREメモリーへ保存可能。
拡張機能の使い方
- Chrome ウェブストアから拡張機能をダウンロードします。
- COREダッシュボードにログインします
- 設定(左下)へ移動
- APIキー → 新しいキーを生成 → 名前は「extension」にする。
- 拡張機能を開き、APIキーを貼り付けて保存します。
💬 メモリ付きチャット:
「私の執筆の好みは?」などの質問をして、接続された知識から即座に洞察を得ることができます⚡ アプリからの自動同期:
Linear、Slack、Notion、GitHubなど接続されたアプリから関連するコンテキストをCOREメモリに自動で取り込みます
📖 統合一覧を見る - サポートされているサービスとその機能の完全リスト
🔗 MCPインテグレーションハブ:
Linear、Slack、GitHub、Notionを一度COREに接続すれば、Claude、Cursor、または任意のMCPクライアントで全てのツールを単一URLで利用可能
COREがメモリを作成する方法
COREの取り込みパイプラインは、進化するコンテキストを捉えるために設計された4つのフェーズで構成されています:
- 正規化: 新しい情報を最近のコンテキストにリンクし、長いドキュメントをクロスリファレンスを維持しつつ一貫したチャンクに分割し、用語を標準化します。これにより、COREが知識を抽出する時点では、雑多なテキストではなく、クリーンで文脈化された入力を扱います。
- 抽出: 正規化されたテキストから意味を引き出し、エンティティ(人物、ツール、プロジェクト、概念)を特定し、文脈・出典・時刻を付与したステートメントに変換し、関係性をマッピングします。例えば「We wrote CORE in Next.js」は、エンティティ(CORE, Next.js)、ステートメント(COREはNext.jsで開発された)、関係(開発された)となります。
- 解決: 矛盾を検出し、嗜好の変化を追跡し、複数の視点を出典付きで保持することで、最新のスナップショットだけでなく全体の記憶の軌跡を反映します。
- グラフ統合: エンティティ、ステートメント、エピソードを時系列のナレッジグラフに接続し、事実をその文脈や履歴にリンクさせ、孤立したデータをエージェントが実際に活用できる生きた知識のウェブに変換します。
COREによる記憶からのリコール方法
あなたがCOREに質問すると、単にテキストを検索するだけでなく、全ナレッジグラフを掘り下げて最も有用な答えを見つけます。
- 検索: COREは複数の角度から記憶を検索します――キーワード検索による完全一致、セマンティック検索で異なる表現でも関連するアイデアを探し、グラフトラバーサルで繋がった概念間のリンクを辿ります。
- 再ランク: 検索結果は最も関連性が高く多様なものが目立つように並び替えられ、単なる一致だけでなく深い関連も見つけやすくします。
- フィルタリング: COREは時刻、信頼性、関係の強さなどに基づくスマートなフィルターを適用し、最も意味のある知識だけが表面化します。
- 出力: 明確な事実(ステートメント)と、その出典となるエピソード(元の文脈)の両方が返されるので、リコールは常に文脈・時刻・ストーリーに根ざします。
ドキュメント
COREを最大限に活用するためにドキュメントをご覧ください
- 基本概念
- セルフホスティング
- Core MCPとClaudeの接続
- Core MCPとCursorの接続
- Core MCPとClaude Codeの接続
- Core MCPとCodexの接続
- 基本概念
- APIリファレンス
🔒 セキュリティ
COREはセキュリティを重視しています。業界標準のセキュリティ対策を実装し、あなたのデータを保護します。
- データ暗号化:転送中のデータ(TLS 1.3)および保存時のデータ(AES-256)をすべて暗号化
- 認証:OAuth 2.0とマジックリンク認証
- アクセス制御:ワークスペース単位の分離とロールベースの権限管理
- 脆弱性報告:セキュリティ問題は harshith@poozle.dev までご報告ください
🧑💻 サポート
ご質問やご意見がありますか?私たちがサポートします:
- Discord: core-support チャンネルに参加
- ドキュメント: docs.heysol.ai
- メール: manik@poozle.dev
利用ガイドライン
保存するもの:
- 会話履歴
- ユーザー設定
- タスクのコンテキスト
- 参考資料
- 機微情報(PII)
- 認証情報
- システムログ
- 一時データ
👥 コントリビューター
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-16 ---