Amerykański Departament Obrony postawił firmie Anthropic ostateczny termin do piątku na udostępnienie swoich modeli sztucznej inteligencji do pełnych i nielimitowanych zastosowań militarnych. Jeśli twórcy technologii nie ustąpią w kwestii blokad bezpieczeństwa, Pentagon grozi bezprecedensowym użyciem przepisów Defense Production Act, co może stanowić historyczny precedens dla niezależności całej branży technologicznej od rządu USA.
Najważniejsze w skrócie
- Wojsko domaga się dostępu do modeli AI bez żadnych zabezpieczeń ograniczających militarne użycie.
- Firma Anthropic odmawia, wskazując na swoje „czerwone linie”: zakaz użycia w autonomicznej broni i masowej inwigilacji.
- Konflikt nabrał tempa po styczniowej operacji schwytania prezydenta Wenezueli, w której użyto omawianej technologii.
- Konkurenci – w tym OpenAI, Google oraz xAI – zgodzili się na warunki armii, uelastyczniając swoje zasady bezpieczeństwa.
Napięcie na linii Dolina Krzemowa – Waszyngton
Sekretarz obrony USA Pete Hegseth podczas wtorkowego spotkania z szefem Anthropic, Dario Amodeiem, przedstawił twarde stanowisko: Departament Obrony nie będzie negocjował z firmą technologiczną każdego poszczególnego przypadku użycia sztucznej inteligencji na polu walki czy w wywiadzie. Pentagon domaga się, aby firma zaakceptowała klauzulę wykorzystania technologii do „wszelkich zgodnych z prawem celów” (all lawful purposes).
Brak zgody do piątkowego wieczoru pociągnie za sobą poważne konsekwencje. Rząd zapowiada uznanie firmy za „ryzyko dla łańcucha dostaw”, co postawi partnerów biznesowych spółki przed trudnym wyborem. Jednak znacznie poważniejszą groźbą jest aktywacja Defense Production Act (DPA). Ustawa ta, stosowana dotychczas w sytuacjach poważnych kryzysów (np. wymuszanie produkcji sprzętu medycznego podczas pandemii), pozwoliłaby rządowi zmuszać kierownictwo do współpracy w imię bezpieczeństwa narodowego. Wymuszenie w ten sposób udostępnienia wojskowej wersji oprogramowania byłoby rozwiązaniem siłowym, niespotykanym dotąd w sektorze usług cyfrowych.
Punkt zapalny: Operacja w Wenezueli
Z informacji przekazanych przez źródła zbliżone do Departamentu Obrony wynika, że zaufanie między stronami załamało się w styczniu bieżącego roku. Właśnie wtedy amerykańskie wojsko wykorzystało model Claude – za pośrednictwem kontraktu z firmą Palantir – w operacji, która doprowadziła do pojmania byłego prezydenta Wenezueli, Nicolása Maduro.
Przedstawiciele firmy technologicznej mieli interweniować, obawiając się, że algorytmy były zaangażowane w „kinetyczną wymianę ognia”, w wyniku której padły strzały. Choć zarząd spółki oficjalnie dementuje szczegółowe rozmowy na temat konkretnych misji bojowych, twardo trzyma się swojego stanowiska z zakresu polityki użytkowania. Czerwonymi liniami pozostają operacje, w których narzędzia AI samodzielnie podejmowałyby ostateczne decyzje o namierzeniu celu bez interwencji człowieka, a także wykorzystywanie ich do masowej inwigilacji obywateli. Wojsko z kolei uważa tego typu wahania za niedopuszczalną ingerencję „zideologizowanych” inżynierów w operacje państwowe.
Konkurencja nie ma takich skrupułów (Mini-porównanie)
Podejście twórców modelu Claude drastycznie różni się od reakcji reszty rynku. W ubiegłym roku Pentagon przyznał czterem wiodącym podmiotom kontrakty o wartości do 200 milionów dolarów na opracowanie zaawansowanych algorytmów na potrzeby obronności.
Z relacji urzędników wynika, że pozostali uczestnicy programu – czyli OpenAI, Google (rozwijające Gemini) oraz xAI, za którym stoi Elon Musk – wykazali się znacznie większą elastycznością. Te trzy firmy zgodziły się zdjąć restrykcyjne zabezpieczenia obowiązujące cywilnych użytkowników i zaakceptować standardy wojskowe pozwalające na szersze działanie. Anthropic, od samego początku pozycjonujące się jako lider bezpieczeństwa (tzw. safety-first), pozostało osamotnione w swoim oporze.
Dlaczego to ważne?
Obecny impas definiuje na nowo granice władzy państwowej nad sektorem prywatnych innowacji. Przez ostatnią dekadę Dolina Krzemowa w dużej mierze funkcjonowała na zasadzie samoregulacji. To same korporacje ustalały, gdzie leżą etyczne granice wykorzystania ich produktów. Ultimatum Departamentu Obrony brutalnie kończy ten etap eksperymentów.
Jeśli amerykańska administracja ostatecznie użyje narzędzia DPA do wymuszenia dostępu do oprogramowania LLM, udowodni to drastyczną zmianę percepcji polityków. W oczach globalnych mocarstw zaawansowane modele sztucznej inteligencji przestały być zwykłymi usługami komercyjnymi, a stały się strategicznym zasobem wojskowym – podlegającym takim samym rygorom bezpieczeństwa jak produkcja amunicji czy myśliwców. Taki precedens może ośmielić również inne państwa na świecie do nacjonalizacji polityk użytkowania prywatnych algorytmów operujących na ich terytorium. Wojsko ma z kolei twardy argument: w dynamicznie zmieniających się warunkach wojny hybrydowej armia nie może pozwolić sobie na sytuację, w której algorytm analityczny nagle zablokuje krytyczny proces dowodzenia, bo tak nakazują mu jego etyczne ograniczenia.
Co dalej?
- Piątkowa decyzja: Oczekuje się, że do końca tygodnia kierownictwo Anthropic podejmie ostateczną decyzję – zaryzykuje eskalację prawną ze strony amerykańskiego rządu albo nagnie swoje zasady, ryzykując potężny kryzys wizerunkowy i ewentualny bunt własnych programistów.
- Problem z migracją: Pentagon przyznaje, że usunięcie modelu Claude ze ściśle tajnych systemów wojskowych i szybkie zastąpienie go algorytmami konkurencji byłoby bardzo kosztownym, wręcz „niezwykle uciążliwym” wyzwaniem logistycznym.
- Precedens dla inwestorów: Wynik tego sporu wyznaczy nowy standard ryzyka (oraz zysków) dla funduszy inwestujących w sztuczną inteligencję o podwójnym zastosowaniu (cywilnym i wojskowym).





