20 lutego 2026 · 6 min lektury

Microsoft przyznaje: Copilot skanował chronione e-maile. Trwają pilne aktualizacje na całym świecie

Okładka: Microsoft przyznaje: Copilot skanował chronione e-maile. Trwają pilne aktualizacje na całym świecie

Firma z Redmond oficjalnie przyznała, że błąd w usłudze Microsoft 365 Copilot umożliwił sztucznej inteligencji wgląd w poufną korespondencję. Sytuacja ta wywołała uzasadniony niepokój o bezpieczeństwo danych wśród przedsiębiorstw korzystających z tego rozwiązania.

Usterka, którą zidentyfikowano pod koniec stycznia, sprawiła, że asystent AI omijał mechanizmy zapobiegania wyciekom danych (DLP), które mają za zadanie chronić firmowe sekrety. Problem dotyczył w szczególności funkcji czatu w zakładce roboczej („work tab”), służącej m.in. do tworzenia podsumowań wiadomości z folderów wysłanych oraz szkiców.

Okazało się, że Copilot miał wgląd w e-maile wyraźnie oznaczone jako „poufne”. Takie tagowanie z założenia miało blokować zautomatyzowanym narzędziom dostęp do wrażliwych treści. Niestety, zabezpieczenia zawiodły, a algorytm bez przeszkód analizował i streszczał tajne informacje.

O błędzie jako pierwszy poinformował serwis technologiczny Bleeping Computer, powołując się na wewnętrzne alerty systemowe potwierdzające awarię. Od momentu ujawnienia sprawy Microsoft podjął natychmiastowe działania naprawcze, a odpowiednia aktualizacja konfiguracji została już wdrożona globalnie dla klientów korporacyjnych.

W oficjalnym oświadczeniu dla stacji BBC przedstawiciele Microsoftu przekazali:

„Wykryliśmy i wyeliminowaliśmy błąd, w wyniku którego czat Microsoft 365 Copilot mógł przetwarzać treści z e-maili oznaczonych przez użytkownika jako poufne, a znajdujących się w jego folderach Wysłane i Szkice w desktopowej wersji aplikacji Outlook”.

Firma dodała również, że choć same mechanizmy kontroli dostępu i polityki ochrony danych nie zostały naruszone, to takie działanie algorytmu było niezgodne z założeniami. Copilot został bowiem zaprojektowany tak, aby bezwzględnie omijać chronione materiały.

Copilot nie jest bezpieczny. Koniec, kropka

Wprowadzony na rynek w lutym 2023 roku system Microsoft Copilot Studio daje przedsiębiorstwom możliwość tworzenia własnych asystentów AI i trenowania ich na wewnętrznych danych w celu automatyzacji pracy w aplikacjach z ekosystemu Microsoftu.

Od tamtej pory gigant technologiczny bardzo intensywnie promuje to rozwiązanie, integrując sztuczną inteligencję z takimi programami jak Word, Excel, Outlook, PowerPoint czy OneNote. We wrześniu 2025 roku uruchomiono funkcję Copilot Chat dla użytkowników biznesowych Microsoft 365, co pozwoliło na bezpośrednią konwersację z wirtualnymi agentami.

Choć korporacje technologiczne reklamują asystentów AI jako niezbędne narzędzia do zwiększania produktywności, specjaliści ds. cyberbezpieczeństwa biją na alarm. Szybkie wdrażanie sztucznej inteligencji otwiera nowe furtki dla cyberataków, z których zabezpieczeniem firmy mogą sobie nie poradzić. W przypadku podmiotów operujących na wysoce poufnych danych, ryzyko jest ogromne.

Zaledwie w styczniu badacze bezpieczeństwa z Varonis Threat Labs zademonstrowali atak typu „jedno kliknięcie” (single-click), który potrafił oszukać Copilota i wymusić na nim ujawnienie wrażliwych danych użytkownika za pośrednictwem pozornie bezpiecznego linku.

Luka w usłudze Microsoft Personal, nazwana „Reprompt”, nie wymagała nawet bezpośredniej interakcji ofiary z asystentem AI – wystarczyło jedynie kliknięcie w odnośnik phishingowy.

Portal Cybernews już wcześniej przytaczał ostrzeżenia ekspertów, którzy zwiastowali użytkownikom Copilota, że wycieki danych z tego narzędzia Microsoftu są tylko kwestią czasu.

Cofając się do roku 2024, badacz bezpieczeństwa Michael Bargury pokazał, w jak prosty sposób boty stworzone w Copilot Studio mogą wykradać poufne informacje korporacyjne, całkowicie omijając wdrożone zabezpieczenia. Odkrycia te zaprezentowano podczas prestiżowej konferencji hakerskiej Black Hat USA 2024 w Las Vegas.

Według eksperta, Copilot posiada szereg luk potęgujących ryzyko dla użytkowników. Mieszanka niebezpiecznych ustawień domyślnych, wtyczek z nadmiernymi uprawnieniami oraz naiwnego podejścia projektowego sprawiła, że wyciek danych stał się „nie tyle możliwy, co wręcz bardzo prawdopodobny”.

Wykorzystując autorskie narzędzie eksploitacyjne, Bargury skanował sieć w poszukiwaniu publicznie dostępnych instancji Copilota, a następnie przejmował je, by wyciągać tajne dane firmowe.

„Hakerzy mogą zdalnie przejąć kontrolę nad twoimi interakcjami z Copilotem. Są w stanie zmusić go do wykonywania dowolnych operacji w twoim imieniu, manipulować tobą i podsuwać fałszywe informacje wpływające na twoje decyzje. Mają całkowitą władzę nad każdym słowem, które sztuczna inteligencja do ciebie pisze” – tłumaczył wtedy badacz.

Eksperci ds. bezpieczeństwa: „W 2026 roku czeka nas lawina podobnych incydentów”

Wpadka z Copilotem najpewniej nie będzie jednorazowym incydentem. Wręcz przeciwnie, można ją traktować jako wczesny sygnał ostrzegawczy przed znacznie poważniejszym kryzysem.

Dr Ilia Kolochenko, dyrektor generalny ImmuniWeb oraz członek Europolu i European Law Institute, przekonuje, że gwałtowny rozwój agentycznej sztucznej inteligencji i wtyczek AI w tradycyjnym oprogramowaniu niepostrzeżenie poszerza pole do nadużyć i cyberataków.

„W 2026 roku prawdopodobnie nastąpi gwałtowny rozwój tego typu zdarzeń, a mogą one stać się najczęstszym rodzajem naruszeń bezpieczeństwa w małych i dużych firmach na całym świecie” – powiedział Kolochenko w wywiadzie dla Cybernews.

Jego zdaniem organizacje wdrażają AI w tempie, za którym nie nadążają procedury bezpieczeństwa. Podczas gdy firmy ścigają się we wdrażaniu inteligentnych asystentów, by podbić wskaźniki efektywności, ramy zarządzania ryzykiem i kontroli często pozostają daleko w tyle.

Wiele klasycznych mechanizmów obronnych, w tym systemy DLP, nigdy nie było projektowanych pod kątem śledzenia tego, jak agenci AI uzyskują dostęp do wrażliwych danych, jak je interpretują i przetwarzają. Przez to mają ogromne trudności z wykryciem nieautoryzowanego lub nadmiernego użycia AI – czy to przez lekkomyślnych pracowników, czy wrogów wewnątrz organizacji.

Kolochenko ostrzega, że problem nie kończy się na błędach wewnętrznych. Grupy przestępcze już teraz pracują nad złośliwymi agentami AI, których jedynym celem jest masowe wykradanie poufnych informacji.

„Nadużywanie sztucznej inteligencji okaże się również katastrofą dla prywatności w 2026 roku. Każdego dnia ogromne ilości wrażliwych danych osobowych są udostępniane dużym modelom językowym (LLM) na całym świecie, bez zachowania jakichkolwiek środków ostrożności” – podkreślił ekspert.

Dodał również, że „nawet agencje rządowe w rozwiniętych państwach są narażone na to niebezpieczeństwo z powodu nieodpowiedniego zarządzania sztuczną inteligencją w miejscu pracy lub całkowitego braku odpowiednich procedur”.

Według specjalisty jednym z głównych wyzwań do pokonania będzie tzw. „shadow AI” – zjawisko polegające na tym, że pracownicy używają prywatnych urządzeń z aplikacjami AI do analizowania lub skanowania poufnych danych służbowych bez wiedzy i zgody pracodawcy.

Kolochenko przewiduje także poważne konsekwencje prawne. W miarę jak systemy AI zakorzeniają się w krytycznych procesach biznesowych, nieuchronnie zaczną pojawiać się pytania o odpowiedzialność za błędy i wycieki.

„W 2026 roku i w kolejnych latach prawdopodobnie będziemy świadkami fali pozwów zbiorowych i indywidualnych, wymierzonych zarówno w technologicznych gigantów, jak i mniejsze firmy zajmujące się AI, za nielegalne gromadzenie danych użytkowników” – zaznacza ekspert.

„Nieuczciwe podmioty, które celowo wykorzystują agentyczną AI do pozyskiwania cennych lub tajnych informacji, będą prawdopodobnie zasłaniać się argumentem, że zgromadziły te dane przypadkowo i bez odpowiednich uprawnień” – tłumaczy.

To, czy taka linia obrony utrzyma się w sądach, zależy od wielu zmiennych. Jednak Kolochenko nie ma wątpliwości, że „branża AI prawdopodobnie mocno na tym ucierpi”, a niektórzy dostawcy technologii mogą zbankrutować wskutek długich procesów sądowych i utraty reputacji.

Ekspert uważa, że po wystąpieniu kilku incydentów bezpieczeństwa o odpowiednio dużej skali, rządy na całym świecie w pośpiechu zabiorą się za regulacje prawne dotyczące sztucznej inteligencji.

„Poważne zdarzenia, takie jak awaria u operatora Krytycznej Infrastruktury Krajowej (CNI) czy masowy wyciek ściśle tajnych dokumentów, sprawią, że rządy po obu stronach Atlantyku najprawdopodobniej wprowadzą surowe restrykcje dotyczące korzystania z AI. To z kolei może doprowadzić do powstania nowej »zimy sztucznej inteligencji«” – podsumowuje specjalista.

Udostępnij ten artykuł

Powiązane artykuły