Web Analytics

core

⭐ 841 stars Polish by RedPlanetHQ

🌐 Język

CORE logo

CORE: Twoja osobista warstwa pamięci dla aplikacji AI

DeepWiki Badge

DokumentacjaDiscord

🔥 Najważniejsze wyniki badań

Pamięć CORE osiąga średnią dokładność 88,24% na zbiorze danych Locomo we wszystkich zadaniach wymagających rozumowania, znacznie przewyższając innych dostawców pamięci. Zobacz ten blog po więcej informacji.

benchmark (1) Pytania jednokrotnego przejścia wymagają odpowiedzi na podstawie jednej sesji; (2) Pytania wielokrotnego przejścia wymagają syntezy informacji z wielu różnych sesji; (3) Pytania dotyczące wiedzy ogólnodomenowej można rozwiązać integrując informacje od rozmówcy z zewnętrzną wiedzą, taką jak zdrowy rozsądek lub fakty ze świata; (4) Pytania wymagające rozumowania czasowego można rozwiązać poprzez rozumowanie czasowe i wychwytywanie wskazówek związanych z czasem w rozmowie;

Przegląd

Problem

Programiści tracą czas na ponowne tłumaczenie kontekstu narzędziom AI. Osiągasz limit tokenów w Claude? Zaczynasz od nowa i tracisz wszystko. Przechodzisz z ChatGPT/Claude do Cursor? Znowu tłumaczysz swój kontekst. Twoje rozmowy, decyzje i spostrzeżenia znikają między sesjami. Z każdą nową aplikacją AI koszt zmiany kontekstu rośnie.

Rozwiązanie - CORE (Contextual Observation & Recall Engine)

CORE to otwartoźródłowa, zunifikowana i trwała warstwa pamięci dla wszystkich Twoich narzędzi AI. Twój kontekst podąża za Tobą z Cursor do Claude, ChatGPT, Claude Code. Jeden graf wiedzy zapamiętuje kto, co, kiedy i dlaczego powiedział. Połącz się raz, pamiętaj wszędzie. Przestań zarządzać kontekstem, zacznij budować.

🚀 Samodzielny hosting CORE

Chcesz uruchomić CORE na własnej infrastrukturze? Samodzielny hosting daje pełną kontrolę nad Twoimi danymi i wdrożeniem.

Wymagania wstępne:

> Uwaga dotycząca modeli open-source: Testowaliśmy opcje OSS, takie jak Ollama i modele GPT, ale jakość ekstrakcji faktów i grafu była niewystarczająca. Aktywnie szukamy alternatyw.

Instalacja

git clone https://github.com/RedPlanetHQ/core.git
cd core
OPENAI_API_KEY=your_openai_api_key
docker-compose up -d

Po wdrożeniu możesz skonfigurować swoich dostawców AI (OpenAI, Anthropic) i zacząć budować swój graf pamięci.

👉 Zobacz kompletny przewodnik po self-hostingu

Uwaga: Próbowaliśmy modeli open-source takich jak Ollama czy GPT OSS, ale generowanie faktów nie było dobre, nadal pracujemy nad poprawą tego i wtedy dodamy wsparcie dla modeli OSS.

🚀 CORE Cloud

Zbuduj swój zunifikowany graf pamięci w 5 minut:

Nie chcesz zarządzać infrastrukturą? CORE Cloud pozwala natychmiastowo zbudować osobisty system pamięci — bez konfiguracji, bez serwerów, po prostu pamięć, która działa.

🧩 Kluczowe funkcje

🧠 Zunifikowana, przenośna pamięć:

Dodawaj i przypominaj sobie swoją pamięć na Cursor, Windsurf, Claude Desktop, Claude Code, Gemini CLI, AWS Kiro, VS Code i Roo Code za pomocą MCP

core-claude

🕸️ Temporalny + Urealniony Graf Wiedzy:

Zapamiętaj historię każdego faktu — śledź kto co powiedział, kiedy i dlaczego, z bogatymi powiązaniami i pełną proweniencją, a nie tylko płaskim magazynem

core-memory-graph

🌐 Rozszerzenie przeglądarki:

Zapisuj rozmowy i treści z ChatGPT, Grok, Gemini, Twittera, YouTube, postów na blogach i dowolnej strony internetowej bezpośrednio do pamięci CORE.

Jak korzystać z rozszerzenia

https://github.com/user-attachments/assets/6e629834-1b9d-4fe6-ae58-a9068986036a

💬 Rozmowa z pamięcią:

Zadawaj pytania takie jak „Jakie są moje preferencje pisania?” i uzyskaj natychmiastowe odpowiedzi z połączonej wiedzy

chat-with-memory

Automatyczna synchronizacja z aplikacji:

Automatycznie pobieraj istotny kontekst z Linear, Slack, Notion, GitHub i innych połączonych aplikacji do pamięci CORE

📖 Zobacz wszystkie integracje - Pełna lista obsługiwanych usług i ich funkcji

core-slack

🔗 MCP Integration Hub:

Połącz Linear, Slack, GitHub, Notion z CORE raz—potem korzystaj ze wszystkich ich narzędzi w Claude, Cursor lub dowolnym kliencie MCP za pomocą jednego URL

core-linear-claude

Jak CORE tworzy pamięć

memory-ingest-diagram

Pipeline pobierania danych CORE składa się z czterech faz zaprojektowanych do wychwytywania zmieniającego się kontekstu:

Rezultat: Zamiast płaskiej bazy danych, CORE daje Ci pamięć, która rośnie i zmienia się razem z Tobą – zachowując kontekst, ewolucję i własność, aby agenci mogli z niej faktycznie korzystać.

memory-ingest-eg

Jak CORE przypomina sobie z pamięci

memory-search-diagram

Gdy zadasz CORE pytanie, nie tylko przeszukuje tekst – zagłębia się w cały Twój graf wiedzy, aby znaleźć najbardziej użyteczne odpowiedzi.

Rezultat: CORE nie tylko przypomina fakty – przywołuje je w odpowiednim kontekście, czasie i historii, dzięki czemu agenci mogą odpowiadać tak, jak Ty byś pamiętał.

Dokumentacja

Poznaj naszą dokumentację, aby w pełni wykorzystać możliwości CORE

🔒 Bezpieczeństwo

CORE traktuje bezpieczeństwo poważnie. Wdrażamy branżowe standardy ochrony danych:

Aby uzyskać szczegółowe informacje o bezpieczeństwie, zobacz naszą Politykę Bezpieczeństwa.

🧑‍💻 Wsparcie

Masz pytania lub uwagi? Jesteśmy tutaj, aby pomóc:

Wytyczne dotyczące użytkowania

Przechowuj:

Nie przechowuj:

👥 Współtwórcy

--- Tranlated By Open Ai Tx | Last indexed: 2025-10-16 ---