NEWS19 marca 2026
EverMind przełamuje barierę 100 milionów tokenów. Nowa architektura MSA redefiniuje pamięć długotrwałą w LLM
Firma EverMind zaprezentowała innowacyjną architekturę Memory Sparse Attention (MSA), która pozwala modelom językowym na obsługę kontekstu o długości 100 milionów tokenów. Rozwiązanie to ma na celu wyeliminowanie problemu „zapominania” informacji w rozbudowanych dialogach i analizach wielostronicowych dokumentów, oferując wydajność nieosiągalną dla dotychczasowych standardów rynkowych.