Setki użytkowników straciło z dnia na dzień dostęp do płatnych kont sztucznej inteligencji, po tym jak giganci technologiczni rozpoczęli masowe blokady popularnego narzędzia do automatyzacji. Bezlitosna reakcja rynku na OpenClaw obnaża kruchość obecnych modeli subskrypcyjnych w starciu z autonomicznymi systemami i ujawnia ogromne luki w cyberbezpieczeństwie.
Najważniejsze w skrócie
- Google bez wcześniejszego ostrzeżenia zablokowało setki płatnych kont korzystających z zewnętrznego klienta do automatyzacji zadań.
- Narzędzie drastycznie obciążało serwery – generując w ramach ryczałtowych subskrypcji zużycie tokenów wyceniane na tysiące dolarów.
- W ślad za Google poszedł Anthropic, który odciął narzędziu darmowy dostęp autoryzacyjny do swoich modeli.
- Eksperci ds. cyberbezpieczeństwa ostrzegają przed złośliwym oprogramowaniem krążącym w niekontrolowanym ekosystemie wtyczek do aplikacji.
Nocna czystka i gniew subskrybentów
W połowie lutego 2026 roku fora dyskusyjne zalała fala skarg. Użytkownicy płacący nawet 250 dolarów miesięcznie za dostęp do najpotężniejszych modeli Gemini zaczęli masowo tracić swoje konta. Prawdziwe oburzenie wywołał jednak fakt, że bany nakładano bez żadnego ostrzeżenia, a zablokowane profile nadal obciążały karty kredytowe klientów.
Wspólnym mianownikiem poszkodowanych okazało się korzystanie z OpenClaw – popularnego asystenta działającego na zasadzie "przynieś własnego agenta" (bring your own agent). Założyciel projektu, Peter Steinberger, otwarcie skrytykował giganta z Mountain View, nazywając jego działania "drakońskimi". Z kolei Varun Mohan (inżynier Google DeepMind) uzasadnił blokady ogromnym wzrostem "złośliwego użycia", które drastycznie obniżało jakość usług dla pozostałych użytkowników.
Arbitraż cenowy: jak maszyna drenuje serwery
Głównym problemem nie okazał się sam fakt istnienia zewnętrznej aplikacji, lecz sposób, w jaki działa. Narzędzie posiada wbudowany mechanizm "bicia serca" (heartbeat), który wybudza agenta co 30-60 minut w celu sprawdzania nowych zadań (np. analizy skrzynki pocztowej).
Przy każdym takim przebudzeniu system przesyła do modelu AI pełen kontekst: pliki robocze, logi systemowe i konfiguracje. Powoduje to astronomiczne zużycie zasobów. Z relacji użytkowników wynika, że w skrajnych przypadkach oprogramowanie potrafiło wygenerować dzienny ruch o rynkowej wartości 500 tysięcy dolarów. Przeliczając standardowe zużycie aktywnego użytkownika z nielimitowanej subskrypcji na realne koszty API, rachunek wynosiłby od 1000 do 3600 dolarów miesięcznie. Żaden model biznesowy oparty na ryczałcie (np. 20 USD za miesiąc) nie jest w stanie tego udźwignąć.
Alternatywne podejście: łagodniejszy Anthropic
Konkurencja podeszła do problemu w sposób nieco bardziej dyplomatyczny. Producent modeli Claude już w styczniu wdrożył odpowiednie zabezpieczenia, uniemożliwiając logowanie przez OAuth dla narzędzi trzecich. Choć dostęp z poziomu środowiska Claude Code został dla tej konkretnej aplikacji ograniczony, firma nie banowała kont. Zamiast tego zwracała komunikaty o błędach, ostatecznie zmuszając użytkowników do przejścia na płatne, w pełni mierzalne pule API. Ten ruch został odebrany przez społeczność jako znacznie bardziej transparentny.
Koszmar cyberbezpieczeństwa
Równolegle do problemów finansowych, na jaw wyszły katastrofalne błędy w architekturze samej aplikacji. Firma badawcza Gartner wydała alert zalecający natychmiastowe blokowanie ruchu z OpenClaw w sieciach korporacyjnych ze względu na "nieakceptowalne ryzyko".
Problem potwierdził się w praktyce. Firma badawcza Spectral zlokalizowała ponad 42 tysiące wystawionych na ataki instancji, z czego 93% posiadało luki pozwalające na zdalne przejęcie kontroli. Co więcej, oficjalny rynek umiejętności "ClawHub" został zalany złośliwym oprogramowaniem. Hakerzy publikowali przydatne skrypty (np. do pobierania wideo), w których ukryto keyloggery czy oprogramowanie kradnące portfele kryptowalut. Luki w zabezpieczeniach okazały się tak poważne, że szefowa bezpieczeństwa Meta, Summer Yue, przyznała, iż testując narzędzie, o mało nie padła ofiarą ataku.
Dlaczego to ważne?
Zablokowanie narzędzia do automatyzacji to znacznie więcej niż standardowa walka z naruszeniami regulaminu – to punkt krytyczny dla całej ekonomii GenAI. Obecne modele biznesowe gigantów technologicznych opierają się na założeniu, że przeciętny użytkownik subskrypcji "nielimitowanej" nie wykorzystuje serwerów przez całą dobę. Agenci działający w tle znoszą to ludzkie ograniczenie. Jeśli oprogramowanie potrafi wysyłać tysiące zapytań dziennie, subsydiowanie tego ruchu przez korporacje błyskawicznie staje się drogą do bankructwa. Incydent ten brutalnie zweryfikował rynkowe realia: z ryczałtowych abonamentów mogą korzystać tylko ludzie, maszyny muszą płacić za każdy przetworzony token.
Trzeba również spojrzeć na kontekst geopolityki wewnątrz Doliny Krzemowej. Dokładnie 15 lutego Sam Altman ogłosił, że twórcy kontrowersyjnego projektu dołączają do OpenAI, a sam kod pozostanie open-source ze wsparciem finansowym fundacji. Biorąc pod uwagę ten fakt, bezwzględne blokady ze strony Google nabierają dodatkowego wymiaru. Zablokowanie narzędzia przejętego przez bezpośredniego konkurenta tuż po ogłoszeniu fuzji to wyraźny sygnał, że giganci będą agresywnie zwalczać zewnętrzne próby "pasożytowania" na własnej infrastrukturze.
Co dalej?
- Koniec epoki ryczałtowych agentów: Dostawcy LLM drastycznie uszczelnią regulaminy, wprowadzając sztywne limity na automatyczne zapytania z kont konsumenckich (wymuszając migrację na API).
- Rozwój weryfikacji tożsamości: Spodziewane jest wdrożenie zaawansowanych algorytmów analizy behawioralnej, które będą odróżniać kliknięcia człowieka od skryptów typu cron.
- Rozłam ekosystemu: Rynek prawdopodobnie podzieli się na zamknięte, natywne środowiska operacyjne (gdzie dostawca modelu udostępnia własne bezpieczne aplikacje) oraz drogie, restrykcyjnie monitorowane otwarte interfejsy dla deweloperów.





