14 kwietnia 2026 · 9 min lekturyEverOSEverMindAI agent memory

EverOS: system operacyjny pamięci dla agentów AI

Okładka: EverOS: system operacyjny pamięci dla agentów AI

EverOS to platforma infrastruktury pamięci długoterminowej dla agentów AI, opracowana przez firmę EverMind z siedzibą w San Mateo w Kalifornii. Nie jest to model językowy ani framework do budowania modeli — to warstwa systemowa, której zadaniem jest wyposażenie istniejących agentów AI w trwałą, ewoluującą i przeszukiwalną pamięć. Temat jest istotny, bo rozwiązuje jedno z fundamentalnych ograniczeń współczesnych systemów AI: brak ciągłości doświadczenia między sesjami.

Najważniejsze w skrócie

  • EverOS to platforma pamięci długoterminowej (memory OS) dla agentów AI — nie model, nie framework, lecz warstwa infrastruktury.
  • Projekt ma charakter open-source, dostępny na GitHubie EverMind-AI/EverOS, oraz wersję chmurową (EverOS Cloud) pod adresem everos.evermind.ai.
  • Publiczna beta została ogłoszona 14 kwietnia 2026 r.
  • Platforma obejmuje cztery główne warstwy: agentową, pamięci, indeksowania i API/MCP.
  • W ramach projektu przyjęto dwa artykuły naukowe na konferencję ACL 2026 — jedną z najważniejszych konferencji w przetwarzaniu języka naturalnego.
  • Wewnętrzne testy wykazują 93,05% dokładności na benchmarku LoCoMo i 83% na LongMemEval.

Czym jest EverOS?

EverOS to system operacyjny pamięci dla agentów AI (ang. memory operating system). Jego zadaniem jest dostarczenie warstwy infrastrukturalnej, która pozwala agentom opartym na dużych modelach językowych (LLM) przechowywać, strukturyzować, wyszukiwać i aktualizować informacje z poprzednich interakcji — zarówno w obrębie jednej sesji, jak i między sesjami.

Warto to precyzyjnie zdefiniować: EverOS nie jest modelem AI, nie jest biblioteką do budowania promptów ani systemem RAG (Retrieval-Augmented Generation) w tradycyjnym rozumieniu. Jak opisuje oficjalna dokumentacja projektu na GitHubie, platforma traktuje pamięć jako pełny cykl życia informacji — od jej pozyskania z rozmowy, przez strukturyzację i indeksowanie, aż po inteligentne wyszukiwanie w odpowiedzi na nowe zapytania agenta.

EverMind opisuje swoją platformę jako odpowiedź na strukturalne ograniczenie obecnych LLM: modele te są z natury bezstanowe. Każde nowe zapytanie traktują jak pierwsze — bez dostępu do historii rozmów, bez możliwości nauki z poprzednich błędów, bez personalizacji opartej na długoterminowych interakcjach z konkretnym użytkownikiem. EverOS ma stanowić infrastrukturalną odpowiedź na ten problem.

4

Kto za nią stoi?

EverOS rozwijany jest przez firmę EverMind, której współzałożycielem jest Jason Deng. Firma określa się jako zespół inżynierów i badaczy skupionych na infrastrukturze pamięci AI. EverMind wchodzi w skład grupy Shanda — chińskiego konglomeratu technologiczno-inwestycyjnego, założonego przez Tianqiao Chena. Kontekst instytucjonalny jest tu istotny, bo filozofia stojąca za projektem — AI jako coś więcej niż narzędzie, podmiot posiadający ciągłość doświadczeń — była publicznie prezentowana przez Chena przy okazji konferencji naukowych.

EverOS jest projektem open-source, co pozwala na niezależną weryfikację jego kodu i architektury. Firma opublikowała co najmniej trzy artykuły naukowe:

  1. EverMemOS: A Self-Organizing Memory Operating System for Structured Long-Horizon Reasoning (arXiv)
  2. HyperMem: Hypergraph Memory for Long-term Conversations (oba przyjęte na konferencję ACL 2026) (arXiv)
  3. MSA: Memory Sparse Attention for Efficient End-to-End Memory Model Scaling to 100M Tokens (arXiv).

Jak działa?

Działanie EverOS można podzielić na dwa główne procesy: zapamiętywanie i przywoływanie.

  • Zapamiętywanie polega na tym, że po każdej interakcji agenta z użytkownikiem system przetwarza treść rozmowy, wyciąga z niej ustrukturyzowane jednostki pamięci (tzw. MemCell), klasyfikuje je według typu i zapisuje w bazie danych z odpowiednim indeksowaniem. Różne typy danych — tekst, dokumenty PDF, obrazy, arkusze kalkulacyjne, strony WWW — można przesłać i zapisać w systemie przez jedno wspólne API.
  • Przywoływanie uruchamia się, gdy agent potrzebuje kontekstu z przeszłości. EverOS oferuje dwa tryby: lekki (oparty na przeszukiwaniu słów kluczowych metodą BM25 i wektorów semantycznych) oraz agentowy (wielorundowe wyszukiwanie z generowaniem zapytań uzupełniających i fuzją wyników). Jak opisuje dokumentacja architektury projektu, oba tryby mogą być stosowane zamiennie w zależności od wymagań co do latencji i dokładności.
1

Kluczowym elementem odróżniającym EverOS od prostych systemów RAG jest mechanizm ewolucji pamięci: system nie tylko przechowuje fakty, ale aktualizuje profil użytkownika i Agent Skills — struktury wiedzy proceduralnej, które mogą być wielokrotnie stosowane w podobnych zadaniach.

Z jakich elementów się składa?

Zgodnie z informacjami opublikowanymi w komunikacie prasowym EverMind z 14 kwietnia 2026 r., platforma zbudowana jest z czterech głównych warstw:

  • Warstwa agentowa (Agentic Layer) — odpowiada za rozumienie intencji zadania i zarządzanie przepływem interakcji.
  • Warstwa pamięci (Memory Layer) — obsługuje ekstrakcję i zarządzanie wspomnieniami z rozmów. W tej warstwie działają mechanizmy filtrowania bezwartościowych interakcji, kompresji długich kontekstów i samouczenia się agenta z własnych zadań (Agent Skills).
  • Warstwa indeksowania (Index Layer) — zarządza osadzeniami wektorowymi (embeddings), parami klucz-wartość i strukturami grafu wiedzy. Tutaj działa mechanizm HyperMem oparty na hipergrafu.
  • Warstwa API/MCP — interfejs integracyjny z zewnętrznymi systemami, modelami językowymi i ekosystemem agentów. Obsługa protokołu MCP (Model Context Protocol) pozwala na integrację z narzędziami deweloperskimi, w tym Claude Code.

Centralnym silnikiem platformy jest EverCore — komponent odpowiedzialny za uzyskane wyniki benchmarkowe.

2

Do czego może być używany?

EverOS adresuje przede wszystkim przypadki użycia, w których agent AI musi działać długoterminowo, pamiętając kontekst z wielu sesji. Producent wskazuje kilka obszarów zastosowań: asystenci osobowi z długotrwałą pamięcią preferencji użytkownika, agenci do analizy dokumentów prawnych i medycznych wymagający spójności między sesjami, systemy obsługi klienta z historią interakcji, automatyzacja zadań programistycznych (integracja z Claude Code i OpenClaw).

Platforma oferuje dwa modele wdrożenia: open-source (samodzielne hostowanie, dostępne przez GitHub) oraz chmurowy (SaaS z bezpłatnym dostępem w fazie beta). Dostępne są też środowiska testowe: Coding Playground zintegrowany z Google Colab oraz Chat Playground, który pozwala wizualnie porównać odpowiedzi standardowego LLM z LLM wyposażonym w pamięć EverOS.

Czym różni się od innych rozwiązań?

Rynek pamięci dla agentów AI jest w fazie aktywnego kształtowania. Główni konkurenci — Mem0, Zep, MemU — oferują podobne funkcje: persystentna pamięć między sesjami, wyszukiwanie semantyczne, profilowanie użytkownika. EverOS wyróżnia się kilkoma aspektami.

Po pierwsze, strukturą HyperMem: zamiast standardowych grafów wiedzy opartych na parach relacji (node–edge–node), EverOS stosuje hipergraf, w którym jedna hiperkrawędź może łączyć dowolnie wiele węzłów jednocześnie. Jak wynika z opublikowanego na arXiv artykułu HyperMem, pozwala to modelować złożone zależności wyższego rzędu między wspomnieniami — coś, czego tradycyjne grafy nie potrafią uchwycić bez sztucznych uproszczeń.

3

Po drugie, mechanizmem Skills: EverOS nie tylko zapamiętuje, co agent robił, ale automatycznie destyluje z doświadczeń wielokrotnie stosowalne procedury (Skill). To jakościowo inne podejście niż proste przechowywanie historii — bliższe temu, jak ludzie uczą się przez powtarzanie i generalizują doświadczenia do nowych sytuacji.

Po trzecie, zakresem wejściowym: system obsługuje wielomodalne dane wejściowe przez jedno API, podczas gdy wiele konkurentów skupia się wyłącznie na tekście.

Dla porównania: tradycyjne podejście RAG, popularyzowane od 2022 roku, polega na wyszukiwaniu pasujących fragmentów tekstu na podstawie podobieństwa wektorowego. Jest skuteczne przy prostych zapytaniach faktograficznych, ale zawodzi przy złożonym wnioskowaniu wieloetapowym i długoterminowych relacjach kontekstowych — dokładnie tam, gdzie EverOS stawia swoją niszę.

Najważniejsze ograniczenia / wyzwania

  • Status produktu. EverOS wchodzi dopiero w fazę publicznej bety (kwiecień 2026). Dane benchmarkowe — 93% na LoCoMo, 83% na LongMemEval — pochodzą z wewnętrznych testów lub testów opisanych w artykułach, a nie z niezależnych, zewnętrznych audytów. Wyniki wymagają potwierdzenia przez szerszą społeczność badawczą.
  • Złożoność infrastrukturalna. Samodzielne wdrożenie EverOS wymaga uruchomienia stosu złożonego z MongoDB, Elasticsearch i Milvus (baza wektorowa). To próg wejścia istotnie wyższy niż w przypadku prostszych rozwiązań.
  • Koszt operacyjny. Platforma stosuje model rozliczeniowy oparty na MCU (Memory Compute Units) i wywołaniach Retrieval API. Przy intensywnym użytkowaniu koszty mogą być nietrywialnym czynnikiem, szczególnie dla mniejszych projektów.
  • Granice weryfikacji deklaracji. Twierdzenie o 234,8% wzrostu skuteczności dla modeli 27B pochodzi z wewnętrznego frameworku EvoAgentBench opracowanego przez samą firmę. Jest to wynik interesujący, ale wymaga potwierdzenia przez niezależne benchmarki, zanim można go traktować jako jednoznaczny fakt techniczny.
  • Dojrzałość ekosystemu. Integracje z agentami takimi jak OpenClaw opisywane są częściowo jako możliwości przyszłe lub wdrożenia we wczesnej fazie. Faktyczny zakres produkcyjnego zastosowania nie jest w pełni udokumentowany publicznie.

Dlaczego ta technologia jest istotna?

Przez większą część historii AI pamięć traktowana była jako kwestia drugorzędna — coś, co można symulować przez poszerzanie okna kontekstowego lub stosowanie prostego RAG. Obserwowany w latach 2024–2026 wzrost popularności agentów wykonawczych — systemów, które nie tylko odpowiadają na pytania, ale samodzielnie realizują wieloetapowe zadania — ujawnił skalę tego zaniedbania.

Agent, który nie pamięta poprzedniej rozmowy, jest praktycznie bezużyteczny jako asystent długoterminowy. Musi za każdym razem od nowa budować obraz preferencji użytkownika, kontekstu projektu i historii decyzji. W środowiskach multi-agentowych, gdzie wiele systemów współpracuje ze sobą przy złożonych zadaniach, brak wspólnej pamięci staje się wąskim gardłem całego systemu.

EverOS wpisuje się w wyraźny trend: infrastruktura staje się nową linią frontu w rywalizacji o jakość agentów AI. Podobnie jak w świecie baz danych lata 90. zdecydowały o tym, kto ma szybszy dostęp do danych, tak dziś decyzje o architekturze pamięci będą współdecydować o tym, które agenty są skuteczne, a które tracą kontekst przy każdej nowej sesji.

EverOS nie jest przy tym projektem izolowanym — obok niego rozwijają się Mem0, Zep, MemOS i kilkanaście mniejszych rozwiązań. To, że EverMind stara się wyróżnić podejściem naukowym (trzy artykuły, w tym dwa na ACL 2026) i otwartym kodem, można interpretować jako próbę zbudowania wiarygodności w środowisku badawczym przed skalowaniem komercyjnym. Na obecnym etapie platforma wygląda na technologicznie interesującą, ale jej faktyczna przewaga nad konkurencją będzie zależała od jakości ekosystemu integracji i wyników w realnych wdrożeniach produkcyjnych — a te dopiero się kształtują.

Podsumowanie

EverOS to platforma infrastruktury pamięci dla agentów AI, a nie model językowy ani framework do budowania aplikacji. Jej podstawowym zadaniem jest umożliwienie agentom trwałego zapamiętywania, strukturyzowania i uczenia się z doświadczeń między sesjami. Projekt łączy elementy bazy wektorowej, grafu wiedzy (w wersji hipergrafowej), mechanizmu samoewolucji umiejętności i warstwy API kompatybilnej z MCP. Platforma jest dostępna jako open-source i w wersji chmurowej, a jej publiczna beta wystartowała w kwietniu 2026 r. Wyniki benchmarkowe są obiecujące, jednak wymagają niezależnej weryfikacji. EverOS jest projektem wartym uwagi dla każdego, kto buduje lub ocenia systemy agentowe wymagające długoterminowej spójności kontekstu.

Źródła

Udostępnij ten artykuł

Powiązane artykuły