Największe globalne banki inwestycyjne, w tym Deutsche Bank oraz Goldman Sachs, rozpoczęły wdrażanie sztucznej inteligencji o charakterze agencyjnym do kontrolowania poczynań swoich traderów. To koniec ery prostych, opartych na słowach kluczowych alertów – nowa generacja algorytmów potrafi samodzielnie analizować kontekst, wyłapywać subtelne nadużycia rynkowe i drastycznie ciąć koszty operacyjne, otwierając zupełnie nowy rozdział w cyfrowej ewolucji sektora finansowego.
Najważniejsze w skrócie
- Deutsche Bank we współpracy z Google Cloud tworzy modele zdolne do monitorowania ponad 40 kanałów komunikacji pracowników w czasie rzeczywistym.
- Niemiecki gigant wyłączył już 200 starych serwerów wspierających dział compliance, redukując liczbę fałszywych alarmów o ponad 25 procent.
- Sztuczna inteligencja zyskała autonomię – systemy agentowe potrafią samodzielnie łączyć fakty z różnych źródeł danych przed eskalacją problemu do człowieka.
- Nomura rozważa bezprecedensowy krok: wspólne trenowanie algorytmów z rynkowymi rywalami, by obniżyć wskaźnik błędnych zgłoszeń aż o 40 procent.
- Mimo zaawansowanej automatyzacji, ostateczne decyzje dyscyplinarne wciąż pozostają w kompetencjach wyspecjalizowanych oficerów kontroli i nadzoru.
Wall Street zatrudnia wirtualnych śledczych
Sektor finansowy od wielu lat zmaga się z gigantycznym wyzwaniem technologicznym i kadrowym: jak skutecznie monitorować tysiące transakcji na sekundę i miliony wiadomości wymienianych przez pracowników, nie paraliżując przy tym bieżącej pracy instytucji. Presja ze strony organów regulacyjnych w Stanach Zjednoczonych i Europie nieustannie rośnie. Instytucje finansowe są poddawane rygorystycznym kontrolom mającym na celu zapobieganie manipulacjom na rynkach, handlowi z wykorzystaniem informacji poufnych (insider trading) oraz innym formom nadużyć.
Dotychczasowe metody kontroli okazywały się wyjątkowo nieefektywne. Przypominały rzucanie szerokiej sieci, w którą łapało się wszystko, co wywoływało choćby najmniejsze podejrzenia. Teraz dzięki zaawansowanym algorytmom globalne instytucje takie jak Goldman Sachs i Deutsche Bank całkowicie zmieniają paradygmat nadzoru. Zamiast biernie czekać na powiadomienia z przestarzałych systemów IT, banki te testują lub już na wczesnym etapie wdrażają tzw. Agentic AI (agencyjną sztuczną inteligencję), która wkracza w obszary zarezerwowane dotąd wyłącznie dla analityków.
Bernd Leukert, dyrektor ds. Technologii, danych i innowacji w Deutsche Bank, w rozmowie z mediami potwierdził, że jego organizacja intensywnie współpracuje z Google Cloud nad stworzeniem wyspecjalizowanego LLM. Narzędzie to, zaplanowane do szerokiego wdrożenia pod koniec 2026 roku, ma na celu nieustanne monitorowanie komunikacji wewnętrznej i zewnętrznej. Obejmuje to zróżnicowany zespół – od traderów, przez sprzedawców, aż po innych pracowników mających bezpośredni kontakt z klientami. Skala tego przedsięwzięcia technologicznego jest imponująca. Oprogramowanie analizuje logi, zlecenia i czaty na żywo z ponad 40 różnych kanałów komunikacyjnych. Modernizacja infrastruktury już teraz pozwoliła niemieckiemu pożyczkodawcy na trwałe wyłączenie około 200 wewnętrznych serwerów obsługujących przestarzałe oprogramowanie nadzorcze.
W ślady europejskiego rywala idzie Goldman Sachs. Amerykański gigant finansowy również koncentruje swoje zasoby na badaniu możliwości wykorzystania autonomicznych agentów. Celem jest wielowarstwowa analiza przepływu transakcji na giełdach. Inżynierowie Goldmana szukają podejrzanych aktywności, których tradycyjne oprogramowanie nie byłoby w stanie wychwycić.
Agentic AI vs tradycyjne reguły
Aby w pełni zrozumieć wagę tej rynkowej zmiany, konieczne jest zestawienie nowego podejścia z dotychczas obowiązującymi standardami technologicznymi.
Przez lata działy compliance opierały swoje działania na rozwiązaniach przypominających klasyczne Robotic Process Automation. Były to systemy ufundowane na sztywnych, predefiniowanych regułach. Przykładowo: jeśli wielkość pojedynczego zlecenia giełdowego przekraczała ściśle ustaloną wartość, zbytnio odchylała się od rynkowego benchmarku albo firmowy komunikator zarejestrował na czacie konkretne słowo-klucz, system automatycznie generował alert flagujący zachowanie pracownika. Rezultatem było absolutne przeciążenie zespołów kontrolnych tzw. Fałszywymi trafieniami (false positives). Nowoczesne platformy obrotu generują tak gargantuiczne ilości sygnałów, że analitycy spędzają większość swojego czasu na zamykaniu błędnych, niegroźnych zgłoszeń, zamiast zajmować się realnym badaniem oszustw.
Agencyjna sztuczna inteligencja operuje w zupełnie innym wymiarze. To już nie jest prosty, reaktywny skrypt "jeśli-to". Kiedy system oparty na agentach wyłapuje anomalię, nie wysyła natychmiastowego powiadomienia do człowieka. Zamiast tego podejmuje działania celowe i autonomiczne. Agent samodzielnie decyduje, jakie bazy danych należy następnie odpytać. Stosując zaawansowane mechanizmy wnioskowania (np. chain-of-thought), oprogramowanie analizuje szerszy kontekst incydentu. Może w ułamku sekundy zestawić podejrzaną transakcję z historycznym wzorcem zachowań konkretnego tradera, skorelować ją z uwarunkowaniami makroekonomicznymi na rynku w danej milisekundzie, a następnie "przeczytać" nieustrukturyzowane dane – maile i transkrypcje rozmów głosowych. Właśnie ta zdolność do samodzielnego zarządzania śledztwem i budowania szerszego obrazu sytuacji wyróżnia technologię agentową na tle zwykłego oprogramowania. Dopiero gdy model potwierdzi wysokie prawdopodobieństwo nadużycia, kompiluje raport i eskaluje sprawę na biurko specjalisty.
Dzięki tak zaawansowanej filtracji wykorzystanie GenAI drastycznie odciąża ludzi, pozwalając im skupić energię na najpoważniejszych, najbardziej zniuansowanych przypadkach.
Wyścig zbrojeń i nieoczekiwane sojusze rynkowe
Budowa i utrzymanie modeli zdolnych do tak złożonej analityki na danych ustrukturyzowanych i nieustrukturyzowanych wymagają astronomicznych nakładów finansowych. Koszty mocy obliczeniowej oraz dostęp do petabajtów wysokiej jakości danych treningowych stawiają przed bankami potężne bariery wejścia. Właśnie dlatego na rynku obserwujemy zjawiska do niedawna niewyobrażalne w hermetycznym świecie finansów.
Tahir Zafar, szef pionu międzynarodowej strategii sztucznej inteligencji w japońskim banku Nomura, poinformował, że kierownictwo firmy prowadzi zaawansowane rozmowy z innym globalnym graczem bankowym. Celem tych negocjacji jest partnerstwo przy wspólnym trenowaniu algorytmów nadzorczych. Dzielenie się surowymi informacjami o zleceniach, klientach i zachowaniach rynkowych z bezpośrednim rynkowym rywalem – przy jednoczesnym zachowaniu ścisłej tajemnicy handlowej – to przedsięwzięcie niezwykle trudne pod kątem prawnym. Jednak przewidywany ROI zdaje się w pełni uzasadniać to ryzyko.
Japońska korporacja szacuje, że inteligentniejszy, kolektywnie wytrenowany monitoring pozwoli na radykalne zredukowanie liczby fałszywych alarmów nawet o 40 procent. Oznaczałoby to dziesiątki milionów dolarów zaoszczędzonych w skali roku oraz znaczne usprawnienie samej kultury organizacyjnej. Nomura kontaktuje się w tej sprawie również z regulatorami, chcąc upewnić się, że to innowacyjne podejście spełni surowe normy rynkowe i nie zostanie uznane za zmowę.
To nie koniec strategicznych współprac. Inne duże podmioty finansowe, jak Banco Santander, podążają alternatywną ścieżką. Hiszpański gigant zdecydował się na współpracę z wyspecjalizowaną firmą technologiczną ThetaRay. Celem partnerstwa jest gruntowna modernizacja mechanizmów przeciwdziałania praniu brudnych pieniędzy (AML). Tam również główną rolę odgrywa agentic AI, która realizuje swoje zadania przy minimalnej interwencji czynnika ludzkiego.
Ryzyko bezpieczeństwa i kwestia ostatecznej kontroli
Mimo wszechogarniającego technologicznego entuzjazmu, implementacja tak potężnych i autonomicznych agentów w departamentach, które potocznie nazywa się "policją finansową", budzi równie duże kontrowersje. Klasycznie rozumiana Digital Transformation korporacji zawsze zakładała nadrzędną i stałą kontrolę człowieka nad architekturą procesów IT. Autonomiczni agenci, mający dostęp do najpilniej strzeżonych tajemnic inwestycyjnych i komunikacji, zmieniają ten wektor.
Benny Porat, dyrektor generalny firmy Twine Security, trafnie punktuje potencjalne słabości tego podejścia. Podkreśla on, że agencyjna natura tych systemów budzi fundamentalne pytania o zarządzanie uprawnieniami i bezpieczeństwo bazodanowe. Oprogramowanie to "otwiera się na systemy zewnętrzne, a pozostawione bez nadzoru stwarza ryzyko przypadkowego ujawnienia wrażliwych danych" – ostrzega Porat. W jego ocenie wiele organizacji wciąż nie ma pojęcia, jak poprawnie zarządzać zaufaniem w relacji człowiek-maszyna na tym poziomie zaawansowania.
Z tego powodu kluczowe staje się utrzymanie wyraźnej granicy kompetencyjnej. Banki solidarnie podkreślają, że AI nie zwalnia ani nie każe pracowników. Autonomiczny system zbiera dowody, koreluje zdarzenia z tysięcy źródeł i przygotowuje gotowe akta. Jednak to oficer compliance lub dział HR wydaje ostateczny osąd na podstawie dostarczonych informacji.
Dlaczego to ważne?
Transformacja zespołów nadzorczych przy pomocy zaawansowanych systemów agentowych to coś znacznie poważniejszego niż kolejna optymalizacja księgowa. Jesteśmy świadkami absolutnie fundamentalnej zmiany w architekturze globalnego nadzoru finansowego. Po kryzysie z 2008 roku i serii głośnych skandali związanych z manipulacją wskaźnikami (takimi jak LIBOR) banki inwestycyjne zostały zmuszone przez regulatorów do gigantycznej rozbudowy działów zgodności. Zatrudniono całe armie analityków i wdrożono drogie oprogramowanie filtrujące, co wywindowało koszty operacyjne do niespotykanych poziomów.
Ten tradycyjny model obrony po prostu dotarł do ściany swojej wydajności. Złożoność dzisiejszych rynków kapitałowych, na których o zyskach decydują algorytmy handlujące w mikrosekundach, sprawia, że człowiek wspierany tylko statystycznymi regułami nie jest w stanie dostrzec zaawansowanych manipulacji. Wdrożenie technologii agentowej to dowód na to, że sztuczna inteligencja osiągnęła dojrzałość pozwalającą jej na zarządzanie chaosem na poziomie korporacyjnym.
Dla całego ekosystemu finansowego jest to moment przełomowy. Działania pionierów takich jak Goldman Sachs i Deutsche Bank tworzą nowy rynkowy złoty standard. W perspektywie najbliższych lat instytucje, które nie będą posiadały "cyfrowych śledczych" zdolnych do wyłapywania zniuansowanych anomalii, zostaną uznane przez nadzorców (takich jak SEC czy ESMA) za podmioty z niewydolnym systemem kontroli. To z kolei prosta droga do wielomiliardowych kar finansowych. Sztuczna inteligencja przestała być jedynie modnym dodatkiem marketingowym – staje się twardym rdzeniem decyzyjnym decydującym o "być albo nie być" na współczesnej Wall Street.
Co dalej?
- Standaryzacja nadzoru i audytów AI: Organy państwowe i międzynarodowi nadzorcy wkrótce wymuszą na bankach certyfikację algorytmów pod kątem tzw. "explainable AI". Każda decyzja podjęta przez agenta analizującego transakcje będzie musiała być w pełni wytłumaczalna i audytowalna, by zapobiec algorytmicznym pomyłkom.
- Powstanie międzybankowych konsorcjów danych: Jeśli pionierski projekt Nomury zakończy się sukcesem, możemy spodziewać się powstania globalnych platform, gdzie największe instytucje finansowe będą bezpiecznie i w sposób zaszyfrowany wymieniać się wzorcami nadużyć, tworząc swoisty cyfrowy immunitet dla całego rynku.
- Ekspansja technologii na front-office: udowodnienie, że agenci AI potrafią bezbłędnie analizować strumienie danych i weryfikować skomplikowane zdarzenia w celach kontrolnych, błyskawicznie zachęci banki do wdrożenia bliźniaczych technologii w obszarach generujących zyski – od zautomatyzowanego doradztwa majątkowego po aktywne zarządzanie ryzykiem wielkich portfeli inwestycyjnych.
Źródło: Bloomberg News (raport oryginalny: Deutsche Bank, Goldman Look to AI to Flag Trader Misconduct), Seeking Alpha, AI News, TradingView





