🔥 Najważniejsze wyniki badań
Pamięć CORE osiąga średnią dokładność 88,24% na zbiorze danych Locomo we wszystkich zadaniach wymagających rozumowania, znacznie przewyższając innych dostawców pamięci. Zobacz ten blog po więcej informacji.
(1) Pytania jednokrotnego przejścia wymagają odpowiedzi na podstawie jednej sesji; (2) Pytania wielokrotnego przejścia wymagają syntezy informacji z wielu różnych sesji; (3) Pytania dotyczące wiedzy ogólnodomenowej można rozwiązać integrując informacje od rozmówcy z zewnętrzną wiedzą, taką jak zdrowy rozsądek lub fakty ze świata; (4) Pytania wymagające rozumowania czasowego można rozwiązać poprzez rozumowanie czasowe i wychwytywanie wskazówek związanych z czasem w rozmowie;
Przegląd
Problem
Programiści tracą czas na ponowne tłumaczenie kontekstu narzędziom AI. Osiągasz limit tokenów w Claude? Zaczynasz od nowa i tracisz wszystko. Przechodzisz z ChatGPT/Claude do Cursor? Znowu tłumaczysz swój kontekst. Twoje rozmowy, decyzje i spostrzeżenia znikają między sesjami. Z każdą nową aplikacją AI koszt zmiany kontekstu rośnie.
Rozwiązanie - CORE (Contextual Observation & Recall Engine)
CORE to otwartoźródłowa, zunifikowana i trwała warstwa pamięci dla wszystkich Twoich narzędzi AI. Twój kontekst podąża za Tobą z Cursor do Claude, ChatGPT, Claude Code. Jeden graf wiedzy zapamiętuje kto, co, kiedy i dlaczego powiedział. Połącz się raz, pamiętaj wszędzie. Przestań zarządzać kontekstem, zacznij budować.
🚀 Samodzielny hosting CORE
Chcesz uruchomić CORE na własnej infrastrukturze? Samodzielny hosting daje pełną kontrolę nad Twoimi danymi i wdrożeniem.Wymagania wstępne:
- Zainstalowane Docker (20.10.0+) i Docker Compose (2.20.0+)
- Klucz API OpenAI
Instalacja
- Sklonuj repozytorium:
git clone https://github.com/RedPlanetHQ/core.git
cd core
- Skonfiguruj zmienne środowiskowe w
core/.env:
OPENAI_API_KEY=your_openai_api_key
- Uruchom usługę
docker-compose up -dPo wdrożeniu możesz skonfigurować swoich dostawców AI (OpenAI, Anthropic) i zacząć budować swój graf pamięci.
👉 Zobacz kompletny przewodnik po self-hostingu
Uwaga: Próbowaliśmy modeli open-source takich jak Ollama czy GPT OSS, ale generowanie faktów nie było dobre, nadal pracujemy nad poprawą tego i wtedy dodamy wsparcie dla modeli OSS.
🚀 CORE Cloud
Zbuduj swój zunifikowany graf pamięci w 5 minut:Nie chcesz zarządzać infrastrukturą? CORE Cloud pozwala natychmiastowo zbudować osobisty system pamięci — bez konfiguracji, bez serwerów, po prostu pamięć, która działa.
- Zarejestruj się na core.heysol.ai i załóż konto
- Wizualizuj swój graf pamięci i zobacz jak CORE automatycznie tworzy powiązania między faktami
- Przetestuj — zapytaj „Co wiesz o mnie?” w sekcji rozmów
- Połącz się ze swoimi narzędziami:
- Claude & Cursor — kodowanie z kontekstem
- CLaude Code CLI & Codex CLI — kodowanie w terminalu z pamięcią
- Dodaj rozszerzenie do przeglądarki — przenieś swoją pamięć na każdą stronę internetową
- Linear, Github — automatyczne dodawanie kontekstu projektu
🧩 Kluczowe funkcje
🧠 Zunifikowana, przenośna pamięć:
Dodawaj i przypominaj sobie swoją pamięć na Cursor, Windsurf, Claude Desktop, Claude Code, Gemini CLI, AWS Kiro, VS Code i Roo Code za pomocą MCP🕸️ Temporalny + Urealniony Graf Wiedzy:
Zapamiętaj historię każdego faktu — śledź kto co powiedział, kiedy i dlaczego, z bogatymi powiązaniami i pełną proweniencją, a nie tylko płaskim magazynem
🌐 Rozszerzenie przeglądarki:
Zapisuj rozmowy i treści z ChatGPT, Grok, Gemini, Twittera, YouTube, postów na blogach i dowolnej strony internetowej bezpośrednio do pamięci CORE.
Jak korzystać z rozszerzenia
- Pobierz rozszerzenie ze sklepu Chrome Web Store.
- Zaloguj się do panelu CORE
- Przejdź do Ustawień (lewy dolny róg)
- Przejdź do Klucza API → Wygeneruj nowy klucz → Nazwij go „extension.”
- Otwórz rozszerzenie, wklej swój klucz API i zapisz.
💬 Rozmowa z pamięcią:
Zadawaj pytania takie jak „Jakie są moje preferencje pisania?” i uzyskaj natychmiastowe odpowiedzi z połączonej wiedzy⚡ Automatyczna synchronizacja z aplikacji:
Automatycznie pobieraj istotny kontekst z Linear, Slack, Notion, GitHub i innych połączonych aplikacji do pamięci CORE
📖 Zobacz wszystkie integracje - Pełna lista obsługiwanych usług i ich funkcji
🔗 MCP Integration Hub:
Połącz Linear, Slack, GitHub, Notion z CORE raz—potem korzystaj ze wszystkich ich narzędzi w Claude, Cursor lub dowolnym kliencie MCP za pomocą jednego URL
Jak CORE tworzy pamięć
Pipeline pobierania danych CORE składa się z czterech faz zaprojektowanych do wychwytywania zmieniającego się kontekstu:
- Normalizacja: Łączy nowe informacje z ostatnim kontekstem, dzieli długie dokumenty na spójne fragmenty zachowując odniesienia krzyżowe oraz standaryzuje terminy, dzięki czemu gdy CORE wydobywa wiedzę, pracuje już na czystym, zkontekstualizowanym wejściu, a nie chaotycznym tekście.
- Ekstrakcja: Wydobywa znaczenie ze znormalizowanego tekstu, identyfikując encje (osoby, narzędzia, projekty, koncepcje), przekształcając je w stwierdzenia z kontekstem, źródłem i czasem oraz mapując relacje. Przykład: „Napisaliśmy CORE w Next.js” staje się: Encje (Core, Next.js), Stwierdzenie (CORE został opracowany przy użyciu Next.js), Relacja (został opracowany przy użyciu).
- Rozwiązanie: Wykrywa sprzeczności, śledzi zmiany preferencji i zachowuje wiele perspektyw z pochodzeniem zamiast je nadpisywać, dzięki czemu pamięć odzwierciedla całą Twoją drogę, a nie tylko najnowszy stan.
- Integracja grafu: Łączy encje, stwierdzenia i epizody w temporalny graf wiedzy, który wiąże fakty z ich kontekstem i historią, zamieniając odizolowane dane w żywą sieć wiedzy, którą agenci mogą faktycznie wykorzystać.
Jak CORE przypomina sobie z pamięci
Gdy zadasz CORE pytanie, nie tylko przeszukuje tekst – zagłębia się w cały Twój graf wiedzy, aby znaleźć najbardziej użyteczne odpowiedzi.
- Wyszukiwanie: CORE przeszukuje pamięć z wielu perspektyw jednocześnie – wyszukiwanie po słowach kluczowych dla dokładnych trafień, wyszukiwanie semantyczne dla powiązanych idei nawet jeśli są inaczej sformułowane, oraz przechodzenie po grafie, aby podążać za powiązanymi koncepcjami.
- Ponowna ocena: Odzyskane wyniki są sortowane na nowo, by wyróżnić te najbardziej istotne i zróżnicowane, dzięki czemu nie widzisz tylko oczywistych trafień, ale również głębsze powiązania.
- Filtrowanie: CORE stosuje inteligentne filtry na podstawie czasu, wiarygodności i siły relacji, więc trafia do Ciebie tylko najbardziej znacząca wiedza.
- Wynik: Otrzymujesz zarówno fakty (jasne stwierdzenia), jak i epizody (oryginalny kontekst, z którego pochodzą), więc przypomnienie jest zawsze osadzone w kontekście, czasie i historii.
Dokumentacja
Poznaj naszą dokumentację, aby w pełni wykorzystać możliwości CORE
- Podstawowe pojęcia
- Samodzielny hosting
- Połączenie Core MCP z Claude
- Połączenie Core MCP z Cursor
- Połączenie Core MCP z Claude Code
- Połączenie Core MCP z Codex
- Podstawowe pojęcia
- Referencja API
🔒 Bezpieczeństwo
CORE traktuje bezpieczeństwo poważnie. Wdrażamy branżowe standardy ochrony danych:
- Szyfrowanie danych: Wszystkie dane w tranzycie (TLS 1.3) i w spoczynku (AES-256)
- Uwierzytelnianie: OAuth 2.0 oraz uwierzytelnianie za pomocą magicznego linku
- Kontrola dostępu: Izolacja na poziomie przestrzeni roboczej i uprawnienia oparte na rolach
- Zgłaszanie podatności: Prosimy zgłaszać problemy związane z bezpieczeństwem na harshith@poozle.dev
🧑💻 Wsparcie
Masz pytania lub uwagi? Jesteśmy tutaj, aby pomóc:
- Discord: Dołącz do kanału core-support
- Dokumentacja: docs.heysol.ai
- Email: manik@poozle.dev
Wytyczne dotyczące użytkowania
Przechowuj:
- Historię rozmów
- Preferencje użytkownika
- Kontekst zadania
- Materiały referencyjne
- Danych wrażliwych (PII)
- Poświadczeń
- Logów systemowych
- Danych tymczasowych
👥 Współtwórcy
--- Tranlated By Open Ai Tx | Last indexed: 2025-10-16 ---