Web Analytics

core

⭐ 841 stars Japanese by RedPlanetHQ

🌐 言語

CORE ロゴ

CORE: AIアプリのためのあなた専用のメモリレイヤー

DeepWiki バッジ

ドキュメントDiscord

🔥 研究ハイライト

COREメモリはLocomoデータセットの全推論タスクで平均88.24%の精度を達成し、他のメモリプロバイダーを大きく上回りました。詳細はブログをご覧ください。

benchmark (1) シングルホップ質問は1つのセッションに基づいて回答されます;(2) マルチホップ質問は複数の異なるセッションから情報を統合して回答します;(3) オープンドメイン知識質問は話者が提供した情報と外部知識(常識や世界の事実など)を統合して回答できます;(4) 時間推論質問は会話内の時系列データ手がかりを捉えることで時間推論によって回答されます;

概要

問題点

開発者はAIツールに文脈を何度も説明するのに時間を浪費しています。Claudeでトークン上限に達すると、最初からやり直してすべて失います。ChatGPT/ClaudeからCursorへ切り替えたら、また文脈を説明し直さなければなりません。会話、決定、洞察はセッション間で消えてしまいます。新しいAIツールを使うたびに、コンテキスト切り替えのコストが増大します。

解決策 - COREContextual Observation & Recall Engine

COREはすべてのAIツール向けのオープンソース統合型・永続型メモリレイヤーです。あなたの文脈はCursorからClaude、ChatGPT、Claude Codeへと引き継がれます。一つのナレッジグラフが「誰が、いつ、何を、なぜ」話したかを記憶します。一度接続すれば、どこでも記憶。文脈管理はやめて、構築を始めましょう。

🚀 COREセルフホスティング

COREを自分のインフラで稼働させたいですか?セルフホスティングなら、データと運用を完全にコントロールできます。

前提条件:

> オープンソースモデルに関する注意: OllamaやGPTモデルなどOSSオプションをテストしましたが、事実抽出とグラフ品質は基準に達しませんでした。現在も選択肢を積極的に探しています。

セットアップ

git clone https://github.com/RedPlanetHQ/core.git
cd core
OPENAI_API_KEY=your_openai_api_key
docker-compose up -d

デプロイが完了したら、AIプロバイダー(OpenAI、Anthropic)の設定を行い、メモリーグラフの構築を開始できます。

👉 完全なセルフホスティングガイドを表示

注意: OllamaやGPT OSSなどのオープンソースモデルを試しましたが、事実生成の精度が低かったため、現在も改善方法を模索しています。改善でき次第、OSSモデルもサポート予定です。

🚀 CORE Cloud

5分で統合メモリーグラフを構築:

インフラ管理をしたくない場合は、CORE Cloudで即座に個人用メモリーシステムを構築可能—セットアップ不要、サーバー不要、ただ使えるメモリー。

🧩 主な機能

🧠 統合・ポータブルメモリー:

Cursor、Windsurf、Claude Desktop、Claude Code、Gemini CLI、AWSのKiro、VS Code、Roo CodeでMCPを介してメモリーの追加と呼び出しが可能

core-claude

🕸️ 時系列+具体化ナレッジグラフ:

すべての事実の背景ストーリーを記憶—誰が、いつ、なぜ発言したかを豊かな関係性と完全な来歴で追跡し、単なる平面的な保存ではない

core-memory-graph

🌐 ブラウザー拡張機能:

ChatGPT、Grok、Gemini、Twitter、YouTube、ブログ記事、任意のウェブページの会話とコンテンツを直接COREメモリーへ保存可能。

拡張機能の使い方

https://github.com/user-attachments/assets/6e629834-1b9d-4fe6-ae58-a9068986036a

💬 メモリ付きチャット:

「私の執筆の好みは?」などの質問をして、接続された知識から即座に洞察を得ることができます

chat-with-memory

アプリからの自動同期:

Linear、Slack、Notion、GitHubなど接続されたアプリから関連するコンテキストをCOREメモリに自動で取り込みます

📖 統合一覧を見る - サポートされているサービスとその機能の完全リスト

core-slack

🔗 MCPインテグレーションハブ:

Linear、Slack、GitHub、Notionを一度COREに接続すれば、Claude、Cursor、または任意のMCPクライアントで全てのツールを単一URLで利用可能

core-linear-claude

COREがメモリを作成する方法

memory-ingest-diagram

COREの取り込みパイプラインは、進化するコンテキストを捉えるために設計された4つのフェーズで構成されています:

結果: フラットなデータベースではなく、COREはあなたと共に成長・変化する記憶を提供します。文脈、進化、所有権を保持し、エージェントが実際に利用できるようになります。

memory-ingest-eg

COREによる記憶からのリコール方法

memory-search-diagram

あなたがCOREに質問すると、単にテキストを検索するだけでなく、全ナレッジグラフを掘り下げて最も有用な答えを見つけます。

結果: COREは単なる事実を呼び出すだけでなく、適切な文脈・時刻・ストーリーとともに呼び出すため、エージェントがあなたの記憶通りに応答できます。

ドキュメント

COREを最大限に活用するためにドキュメントをご覧ください

🔒 セキュリティ

COREはセキュリティを重視しています。業界標準のセキュリティ対策を実装し、あなたのデータを保護します。

詳細なセキュリティ情報は、セキュリティポリシーをご覧ください。

🧑‍💻 サポート

ご質問やご意見がありますか?私たちがサポートします:

利用ガイドライン

保存するもの:

保存しないもの:

👥 コントリビューター

--- Tranlated By Open Ai Tx | Last indexed: 2025-10-16 ---