28 lutego 2026 · 4 min lektury

Departament Wojny grozi Anthropic. Amodei odrzuca zlecenia na broń AI

Okładka: Departament Wojny grozi Anthropic. Amodei odrzuca zlecenia na broń AI

Dario Amodei, CEO Anthropic, otwarcie sprzeciwił się naciskom Departamentu Obrony (nazywanego teraz oficjalnie Departamentem Wojny), odmawiając zniesienia zabezpieczeń swoich modeli AI. Poszło o kluczowe czerwone linie: masową inwigilację obywateli oraz tworzenie w pełni autonomicznej broni. To bezprecedensowe starcie giganta technologicznego z administracją pokazuje rosnące napięcie na linii Dolina Krzemowa – Pentagon, w którym stawką jest kontrola nad militarnym zastosowaniem sztucznej inteligencji.

Najważniejsze w skrócie

  • Stanowcze „nie” dla Pentagonu: Anthropic odmówiło zaakceptowania klauzuli „wszelkiego zgodnego z prawem użycia” (any lawful use), która w praktyce znosiłaby bariery bezpieczeństwa modeli AI.
  • Czerwone linie Amodeiego: Firma zgadza się na wsparcie działań wywiadowczych (foreign intelligence), ale kategorycznie wyklucza użycie swoich narzędzi do masowej inwigilacji krajowej i zasilania w pełni autonomicznych systemów uzbrojenia.
  • Groźby rządu USA: Departament Wojny grozi wykluczeniem firmy z łańcucha dostaw rządowych (określając ją mianem "supply chain risk") i sugeruje możliwość użycia ustawy Defense Production Act, by zmusić spółkę do współpracy.
  • Chiński wątek: Anthropic podkreśla swoją lojalność wobec wartości demokratycznych, przypominając, że zablokowało już firmy powiązane z KPCh próbujące nadużywać ich technologii. Z kolei politycy sugerują, że restrykcje Amodeiego pomagają Chinom wygrać wyścig zbrojeń w AI.

Konflikt o to, do czego zdolna jest AI

Choć modele językowe kojarzą się głównie z asystentami takimi jak Claude (czy konkurencyjny Gemini albo ChatGPT), ich potencjał militarny jest ogromny. Amodei wprost zaznaczył, że współczesna sztuczna inteligencja potrafi automatycznie, na masową skalę, agregować „rozproszone, z pozoru nieistotne dane w kompleksowy obraz życia dowolnej osoby”. Właśnie dlatego zablokował możliwość wykorzystywania swoich systemów do inwigilacji Amerykanów.

Drugim spornym punktem są w pełni autonomiczne bronie – maszyny zdolne do identyfikacji i likwidacji celów bez nadzoru człowieka. Szef Anthropic argumentuje, że obecne algorytmy (określane jako frontier AI systems) są „po prostu niewystarczająco niezawodne”, aby można było powierzyć im tak krytyczne decyzje. Według firmy, bez odpowiednich barier ochronnych (guardrails), systemy te stanowią zagrożenie zarówno dla cywilów, jak i własnych oddziałów.

Zupełnie inaczej sprawę widzi administracja rządowa. Emil Michael, urzędnik Departamentu Obrony, publicznie zaatakował Amodeiego na platformie X, twierdząc, że ten próbuje „osobiście kontrolować wojsko USA” i naraża bezpieczeństwo narodowe. Argumentacja Pentagonu opiera się na prostym dylemacie: jeśli my nałożymy na siebie ograniczenia moralne, a nasi przeciwnicy (Chiny) tego nie zrobią, przegramy wyścig. Rząd domagał się więc usunięcia obostrzeń i akceptacji klauzuli pozwalającej na „każde legalne zastosowanie” technologii.

Szantaż i gra o najwyższą stawkę

Z perspektywy rynkowej Anthropic znajduje się pod potężną presją. Z jednej strony to właśnie oni (jako jedni z pierwszych obok gigantów takich jak OpenAI czy Microsoft) dostarczyli modele dla środowisk sklasyfikowanych i laboratoriów narodowych, stając się kluczowym partnerem dla analityki wywiadowczej i planowania operacyjnego. Z drugiej strony, odmowa posłuszeństwa spotkała się z ostrą reakcją sekretarza Obrony Pete'a Hegsetha, który grozi użyciem Defense Production Act (ustawy z czasów zimnej wojny) do przymuszenia firmy do działań na rzecz wojska.

Pojawiają się również groźby wpisania spółki na listę podmiotów stwarzających „ryzyko dla łańcucha dostaw” – etykietki zazwyczaj rezerwowanej dla wrogich potęg, która odcięłaby firmę od lukratywnych kontraktów państwowych. Amodei pozostaje jednak nieugięty, stwierdzając, że takie groźby są „wewnętrznie sprzeczne” (skoro ich technologia jest tak kluczowa dla bezpieczeństwa, dlaczego uznawać ją za ryzyko dla łańcucha dostaw?) i zadeklarował gotowość do wsparcia rządu w poszukiwaniu alternatywnego dostawcy, jeśli Pentagon zdecyduje się zerwać współpracę.

Dlaczego to ważne?

Oto jesteśmy świadkami kluczowego starcia w kształtowaniu nowej architektury bezpieczeństwa globalnego. Po raz pierwszy lider jednej z najważniejszych firm rozwijających tzw. Frontier AI odmawia Pentagonowi bezwarunkowego dostępu do swoich algorytmów.

Decyzja Amodeiego to test dla całej branży technologicznej. Pokazuje rozżęci między Doliną Krzemową, która (przynajmniej deklaratywnie) chce tworzyć „bezpieczną sztuczną inteligencję” bazującą na wartościach demokratycznych, a twardymi realiami geopolityki i tzw. Departamentem Wojny, dla którego priorytetem jest wygranie wyścigu technologicznego z Chinami (wspieranymi przez podmioty takie jak Tencent czy Alibaba) za wszelką cenę.

Z punktu widzenia obywateli to sprawa absolutnie fundamentalna. Skoro zaawansowane LLM mogą analizować zachowania, nawyki i finanse całych populacji, to oddanie ich do dyspozycji wojska i wywiadu do inwigilacji wewnętrznej tworzy ryzyko powstania panoptikonu, o jakim nie śniło się służbom w minionym stuleciu. Ten spór to nie tylko negocjacje kontraktu – to ustalanie granic dla broni XXI wieku.

Co dalej?

  • Próba sił za pomocą DPA: Jeśli administracja faktycznie sięgnie po Defense Production Act, czeka nas bezprecedensowa batalia prawna o to, czy rząd może zmusić prywatną firmę z sektora AI do odblokowania pełnych możliwości jej produktów.
  • Exodus wojskowych do konkurencji: Jeśli Anthropic straci zaufanie Departamentu Wojny, skorzystają na tym gracze o mniej rygorystycznych zasadach dotyczących zastosowań militarnych, tacy jak Palantir czy potencjalnie rywale z ekosystemu OpenAI i Google.
  • Debata o autonomii maszyn: Konflikt ten wymusi na amerykańskim Kongresie i sojusznikach konieczność stworzenia jasnych regulacji (guardrails) określających, czy w pełni zautomatyzowane drony i systemy uzbrojenia mogą podejmować decyzje o zabijaniu bez nadzoru (human-in-the-loop).

Źródło: Opracowanie własne na podstawie informacji udostępnionych przez Reuters, oświadczeń na platformie X, bloga Anthropic oraz doniesień serwisu iThome.

Udostępnij ten artykuł

Powiązane artykuły