Google DeepMind, Microsoft i xAI zgodziły się na przedpublikacyjne oceny bezpieczeństwa swoich modeli AI przez rządowy organ USA — Center for AI Standards and Innovation (CAISI) z Departamentu Handlu. Ogłoszono to 5 maja 2026 roku; CAISI przeprowadziło już łącznie 40 takich recenzji.
Najważniejsze w skrócie
- Google DeepMind, Microsoft i xAI podpisały nowe umowy z CAISI
- CAISI przeprowadziło dotychczas 40 ocen modeli AI przed ich premierą
- OpenAI i Anthropic renegocjowały wcześniejsze umowy z 2024 roku
- Biały Dom rozważa executive order nakazujący obowiązkowy rządowy przegląd nowych modeli
- CAISI działa pod Departamentem Handlu w ramach NIST
Czym jest CAISI i co ocenia?
Center for AI Standards and Innovation (CAISI) to jednostka podległa National Institute of Standards and Technology (NIST) w Departamencie Handlu USA. Jej celem jest prowadzenie niezależnych ocen naukowych modeli AI pod kątem bezpieczeństwa narodowego i zdolności technicznych — przed ich publicznym wydaniem.
W ogłoszeniu z 5 maja 2026 roku dyrektor CAISI Chris Fall stwierdził: „Niezależna, rygorystyczna nauka pomiarowa jest niezbędna do zrozumienia frontierowego AI i jego implikacji dla bezpieczeństwa narodowego. Te rozszerzone współprace branżowe pomagają nam skalować naszą pracę w interesie publicznym w krytycznym momencie". CAISI przeprowadziło do tej pory 40 recenzji. Pierwsze umowy — z OpenAI i Anthropic — podpisano w sierpniu 2024 roku.
Nowe umowy z Google DeepMind, Microsoft i xAI rozszerzają krąg firm objętych tym mechanizmem. Jednocześnie OpenAI i Anthropic renegocjowały swoje poprzednie porozumienia, dostosowując je do priorytetów wynikających z AI Action Plan administracji Trumpa, ogłoszonego na początku 2025 roku.
Zakres ocen i ich charakter
Umowy obejmują „oceny przedwdrożeniowe oraz ukierunkowane badania mające na celu lepszą ocenę zdolności frontierowego AI", zgodnie z treścią oficjalnego komunikatu CAISI. Nie sprecyzowano, jakie konkretne modele będą oceniane ani ile czasu CAISI ma na przeprowadzenie przeglądu przed premierą.
Warto podkreślić, że umowy mają charakter dobrowolny — żadna ustawa nie zobowiązuje firm AI do poddania się takim ocenom. To element szerszej polityki, w której administracja Trump zachęca sektor technologiczny do samoregulacji zamiast nakładać obowiązkowe wymogi. Dla porównania: europejskie podejście oparte na AI Act z 2024 roku przewiduje obowiązkowe oceny ryzyka dla modeli „wysokiego ryzyka" i systemów ogólnego przeznaczenia o dużych zdolnościach, realizowane przez samych deweloperów i certyfikowane przez organy notyfikowane UE.
Executive Order w przygotowaniu?
Reportaż New York Times z 4 maja 2026 roku ujawnił, że Biały Dom rozważa wydanie executive order, który „zebrałby razem dyrektorów technologicznych i urzędników rządowych" do nadzoru nad nowymi modelami AI. Rozważana opcja zakładałaby rządowy dostęp do modeli przed premierą bez blokowania ich wydania.
Według NYT część urzędników obawia się „politycznych reperkusji, jeśli dojdzie do niszczycielskiego cyberataku umożliwionego przez AI". Kontekstem jest niedawna premiera modelu Mythos od Anthropic — systemu o znaczących zdolnościach w zakresie cyberbezpieczeństwa, który wzbudził obawy w kręgach rządowych.
Mechanizm CAISI jest traktowany jako ścieżka mniejszego oporu: dobrowolna, ale widoczna kooperacja branży z rządem. Umowy z Google DeepMind, Microsoft i xAI mogą być próbą wyprzedzenia bardziej restrykcyjnych regulacji.
Dlaczego to ważne?
Rozszerzenie umów CAISI o Google DeepMind, Microsoft i xAI to sygnał, że wiodące firmy AI gotowe są zaakceptować rządowy wgląd przed premierą modeli — nawet w środowisku politycznym nastawionym proprzemysłowo. To odwrócenie trendu z 2024–2025, gdy Biały Dom aktywnie wycofywał regulacje dotyczące bezpieczeństwa AI.
Z perspektywy geopolitycznej umowy mają znaczenie kontekstowe: USA i Chiny intensywnie rywalizują na polu modeli frontierowych. Możliwość rządowej oceny zdolności nowych modeli — szczególnie w obszarze cyberbezpieczeństwa — stanowi de facto mechanizm wywiadu technicznego. Dla firm AI akceptacja takich ocen to balansowanie między relacjami z rządem a oczekiwaniami inwestorów, którzy chcą szybkich premier.
Kluczowym pytaniem pozostaje, czy dobrowolny charakter tych umów utrzyma się, jeśli administracja Trumpa zdecyduje się na executive order obowiązujący wszystkich. Wówczas firmy, które podpisały umowy z CAISI wcześniej, będą w korzystniejszej pozycji negocjacyjnej i operacyjnej.
Co dalej?
- Biały Dom ma podjąć decyzję o ewentualnym executive order w nieustalonym terminie — według NYT rozważany jest w kontekście rosnących obaw o cyberbezpieczeństwo
- CAISI nie ujawniło, które konkretne modele objęte są nowymi umowami ani jakie są terminy recenzji
- OpenAI i Anthropic działają w CAISI od 2024 roku — nowe umowy z Google DeepMind, Microsoft i xAI oznaczają, że pięć czołowych laboratoriów AI w USA jest objętych tym mechanizmem
Źródła
- The Verge — Google, Microsoft, and xAI will allow the US government to review their new AI models
- NIST / CAISI — CAISI signs agreements regarding frontier AI national security testing
- Bloomberg — AI firms agree to give US early access to evaluate their models
- The New York Times — White House considers vetting AI models before they are released





