Ace to autonomiczny system robotyczny opracowany przez Sony AI, który w kwietniu 2025 roku po raz pierwszy w historii wygrał mecze w tenisie stołowym z zawodnikami wyczynowymi — zgodnie z oficjalnymi przepisami Międzynarodowej Federacji Tenisa Stołowego (ITTF). Nie jest to model językowy ani oprogramowanie działające w środowisku wirtualnym: Ace to fizyczny robot, który postrzega, decyduje i uderza piłkę w czasie rzeczywistym, na żywo, naprzeciwko człowieka. Wyniki zostały opublikowane 22 kwietnia 2026 roku na łamach prestiżowego czasopisma Nature.
Najważniejsze w skrócie
- Ace to system robotyczny złożony z trzech warstw: percepcji opartej na kamerach wysokiej częstotliwości, modułu sterowania opartego na uczeniu przez wzmocnienie oraz specjalizowanego ramienia robotycznego
- W meczach z elitarnymi zawodnikami (ponad 10 lat doświadczenia, 20 h treningu tygodniowo) Ace wygrał 3 z 5 spotkań i 7 z 13 gier
- Całkowite opóźnienie od chwili wykrycia piłki do uderzenia wynosi ok. 20,2 ms — wobec ok. 230 ms dla zawodnika wyczynowego
- Kluczową innowacją jest pomiar rotacji piłki (spin) w locie, co wcześniej było poważnym słabym punktem robotów tenisa stołowego
- Ace zwyciężał nie szybkością uderzenia, lecz precyzją powrotów i kontrolą rotacji — w 75% przypadków skutecznie odbijał piłki z szerokim zakresem spinów
- System jest w całości wytrenowany w symulacji i przeniesiony do realnego środowiska (sim-to-real transfer)
Czym jest Ace?
Ace to autonomiczny system robotyczny zaprojektowany przez Sony AI w Tokio. Nie jest to pojedynczy model ani algorytm — to kompletny system, który integruje trzy wzajemnie powiązane warstwy: percepcję, sterowanie i sprzęt. Każda z nich musiała zostać stworzona od nowa lub istotnie zmodyfikowana pod kątem wymagań tenisa stołowego.
System ten należy do kategorii tzw. physical AI — sztucznej inteligencji działającej w świecie fizycznym, w czasie rzeczywistym, w warunkach niepewnych i nieprzewidywalnych. To wyraźne odróżnienie od modeli językowych, systemów rekomendacji czy nawet robotów przemysłowych działających według z góry zaprogramowanych trajektorii.
Kto za nim stoi?
Ace powstał w Sony AI — oddziale badawczym Sony Group Corporation. Projekt prowadził Peter Dürr, dyrektor Sony AI w Zurychu. Praca jest wynikiem wieloletniego wysiłku interdyscyplinarnych zespołów, które łączyły kompetencje z dziedziny robotyki, uczenia maszynowego i optyki. Wcześniejszym sukcesem Sony AI był agent Gran Turismo Sophy, który osiągnął poziom mistrzowski w symulacyjnych wyścigach samochodowych — jednak Ace jest znacznie bardziej złożonym przedsięwzięciem, bo działa w przestrzeni fizycznej.
Badania były prowadzone przez ponad 5 lat. Publikacja w Nature (tom 652, s. 886–891, 2026) to recenzowana praca naukowa, a nie komunikat prasowy — szczegółowe dane, metodologia i wyniki meczów są w niej udokumentowane.
Jak działa?
System działa w ciągłej pętli: obserwuje piłkę, wylicza odpowiedź i wykonuje ruch — a całość musi zmieścić się w kilkudziesięciu milisekundach. Poniżej opis każdego z trzech głównych komponentów.
Percepcja — nie tylko oczy, ale i czucie rotacji
Moduł percepcji jest sercem całej innowacji. Ace wyposażono w dziewięć aktywnych kamer pikselowych (APS, Sony IMX273) rozmieszczonych na wieżach wokół boiska olimpijskiego, które lokalizują piłkę w przestrzeni 3D z dokładnością do 3 mm i opóźnieniem ok. 10,2 ms. Kamery te działają synchronicznie z częstotliwością 200 Hz.
Osobnym problemem jest pomiar rotacji (spinu) — kluczowej cechy piłki tenisa stołowego. Piłka może wirować z prędkością przekraczającą 160 obrotów na sekundę, a spin zmienia zarówno tor lotu, jak i sposób odbicia od stołu. Żeby mierzyć spin, Ace używa systemu GCS (Gaze Control System), który śledzi logo na piłce za pomocą specjalnego sensora opartego na kamerze zdarzeniowej (EVS, Sony IMX636) — technologii rejestrującej zmiany jasności z latencją poniżej 1 ms. Prędkość kątową szacuje algorytm CNN, a wynik jest doprecyzowywany przez metodę CMax. Łączny błąd pomiaru prędkości kątowej wynosi ok. 24 rad/s.
Sterowanie — uczenie przez wzmocnienie zamiast ręcznego programowania
Jak powiedział Peter Dürr: „Nie ma żadnego sposobu, żeby ręcznie zaprogramować robota do gry w tenisa stołowego. Musisz nauczyć się grać z doświadczenia." Moduł sterowania oparty jest na algorytmie SAC (Soft Actor-Critic), który należy do rodziny uczenia przez wzmocnienie. Robot trenował wyłącznie w symulacji — grając ze sobą miliony gier — a wyuczone polityki zostały przeniesione na fizycznego robota.
W praktyce polityka działa z częstotliwością 31,25 Hz (co 32 ms), dobierając odpowiednią „umiejętność" (skill) do sytuacji na boisku — np. topspina, backspina, return wysokiego spinu. Wybrany ruch jest następnie realizowany przez planer MPC (Model Predictive Control), który z częstotliwością 1 kHz oblicza referencyjną trajektorię dla każdego stawu ramienia.
Hardware — osiem stopni swobody i własna rakietka
Ramię robotyczne zostało zaprojektowane pod kątem tenisa stołowego: dwa stawy pryzmatyczne i sześć obrotowych dają osiem stopni swobody. Efektorem końcowym jest rakietka (VICTAS ZX-GEAR OUT z gumą Butterfly Dignics OS 2.1 mm), a do serwisu dodano kubek trzymający piłkę. Maksymalna prędkość liniowa końcówki wynosi 20 m/s. Opóźnienie śledzenia pozycji przez hardware jest mniejsze niż 5 ms.
Czym różni się od innych rozwiązań?
Roboty tenisa stołowego mają blisko czterdziestoletnią historię — pierwsza publikacja naukowa pochodzi z 1983 roku. Jednak wcześniejsze systemy, w tym te testowane przez Google DeepMind, były zazwyczaj oceniane na zawodnikach-amatorach lub w warunkach uproszczonych: ze zmodyfikowanymi rakietkami, ograniczoną przestrzenią lub bez zasad serwisowych ITTF.
Ace jest, wedle wiedzy autorów, pierwszym systemem ocenionym w meczach z zawodnikami wyczynowymi i profesjonalistami pod pełną kontrolą sędziowską ITTF, bez żadnych modyfikacji przepisów. Inne roboty pomijały spin lub zakładały heurystyczne punkty uderzenia — Ace mierzy spin w czasie rzeczywistym i adaptuje politykę bez predefiniowanych reguł.
Do czego może być używana ta technologia?
Bezpośrednie zastosowanie to trenażer tenisa stołowego — Ace może pełnić funkcję sparingpartnera dla zawodników na każdym poziomie. Jednak autorzy publikacji wskazują na szerszy kontekst: ta sama kombinacja szybkiego postrzegania, adaptacyjnego sterowania i precyzyjnego sprzętu może znaleźć zastosowanie w robotyce usługowej, robotyce przemysłowej w dynamicznych środowiskach, a także w interaktywnych systemach dla człowieka, które wymagają niskich latencji i fizycznej precyzji.
Najważniejsze ograniczenia / wyzwania
Po pierwsze, Ace przegrał oba mecze z zawodnikami profesjonalnymi (T.League) — wygrał tylko jedną grę z siedmiu rozegranych przeciwko profesjonalistom. Różnica między poziomem elitarnych amatorów a zawodowców okazała się dla systemu istotna.
Po drugie, transfer z symulacji do rzeczywistości pozostaje otwartym problemem badawczym. Fizykę odbicia piłki od stołu i rakietki trzeba modelować empirycznie, a każda rozbieżność między symulatorem a realnością pogarsza skuteczność polityki.
Po trzecie, system wymaga rozbudowanej infrastruktury: dziewięć kamer, trzy wieże z GCS, serwer centralny — całość zajmuje boisko olimpijskie. To nie jest system przenośny ani tani do replikacji.
Po czwarte, taktyka i długoterminowa strategia (np. celowe osłabianie przeciwnika) pozostają słabym punktem. Zawodnicy ludzcy wygrywali punkty przez mocniejsze uderzenia; Ace zwyciężał konsekwencją, nie improwizacją.
Dlaczego ta technologia jest istotna?
Przez ostatnie dwie dekady najgłośniejsze osiągnięcia sztucznej inteligencji dotyczyły środowisk wirtualnych: Go, szachy, StarCraft, Gran Turismo. Wspólną cechą tych sukcesów było to, że AI miała pełną lub prawie pełną wiedzę o stanie gry. Świat fizyczny jest inny — sensory szumią, fizykę trzeba modelować przybliżeniami, a człowiek naprzeciwko jest nieprzewidywalny.
Ace jako system działa w tym trudniejszym środowisku i osiąga wyniki porównywalne z wyczynowymi zawodnikami. To nie jest dowód, że AI może opanować każde zadanie fizyczne — ale stanowi konkretne, weryfikowalne rozszerzenie granicy tego, co autonomiczne systemy potrafią robić poza symulacją.
Według Sony AI to pierwsza demonstracja rywalizacji AI na poziomie eksperckim w jakimkolwiek sporcie w świecie rzeczywistym. Dla branży robotycznej ten wynik ma znaczenie metodologiczne: potwierdza, że uczenie przez wzmocnienie trenowane w symulacji może przenosić się na złożone, szybkozmieniające się środowiska fizyczne — pod warunkiem odpowiednio precyzyjnych modeli i sprzętu.
Ważny jest też sygnał dla projektowania przyszłych robotów. Michael Spranger, prezes Sony AI, podkreślił, że celem nie był robot zdolny do uderzania piłki szybciej niż jakikolwiek człowiek, lecz system wygrywający przez rzeczywistą grę — decyzje, taktykę i umiejętności. To sugeruje odmienną filozofię projektowania niż typowe roboty przemysłowe: zamiast maksymalizacji prędkości i powtarzalności — adaptacyjność i działanie w warunkach niepewnych.
Na obecnym etapie Ace to system badawczy, nie produkt. Jednak wykazuje, że połączenie percepcji opartej na kamerach zdarzeniowych, modelowego uczenia przez wzmocnienie i precyzyjnego hardware'u może dać roboty zdolne do współpracy — i rywalizacji — z człowiekiem w środowisku fizycznym.
Powyższy schemat przedstawia uproszczoną architekturę systemu Ace: trzy główne warstwy (percepcja → sterowanie → hardware) oraz kluczowe parametry każdej z nich. Diagram oparty jest wyłącznie na informacjach potwierdzonych w publikacji Nature (2026) i dokumentacji Sony AI. Nie uwzględnia wszystkich szczegółów implementacyjnych (np. modeli fizyki symulacji ani pełnej architektury sieci neuronowej). Schemat dotyczy wersji systemu ocenianej w meczach z kwietnia 2025 r.
Podsumowanie
Ace to autonomiczny system robotyczny Sony AI, który po raz pierwszy udowodnił w kontrolowanych warunkach, że robot może rywalizować z zawodnikami wyczynowymi w tenisie stołowym — sporcie wymagającym milisekundowych reakcji i precyzyjnej kontroli rotacji. Jego architektura łączy percepcję opartą na kamerach zdarzeniowych, uczenie przez wzmocnienie i specjalizowany hardware robotyczny. System ma istotne ograniczenia — przegrywa z profesjonalistami i wymaga kosztownej infrastruktury — ale jako dowód koncepcji wyraźnie posuwa granicę tego, co fizyczne systemy AI potrafią robić poza środowiskami symulowanymi.
Źródła
- Nature — Dürr P. i in., Outplaying elite table tennis players with an autonomous robot — https://www.nature.com/articles/s41586-026-10338-5
- Sony AI — oficjalna strona projektu Ace — https://ace.ai.sony/
- Sony AI Blog — Inside Project Ace — https://ai.sony/blog/inside-project-ace-discover-the-robot-athlete-that-competes-with-professional-table-tennis-players
- Nature Portfolio — komunikat prasowy, 23 kwietnia 2026 — https://www.natureasia.com/en/info/press-releases/detail/9310
- ScienceAlert — Scientists Built a Robot That Can Beat Elite Human Players at Table Tennis — https://www.sciencealert.com/scientists-built-a-robot-that-can-beat-elite-human-players-at-table-tennis
- Fortune — Meet Ace, the paddle-wielding robot who just beat humans at ping pong — https://fortune.com/2026/04/22/meet-ace-the-paddle-wielding-robot-who-just-beat-humans-at-ping-pong-in-ai-breakthrough/
- Tech Startups — Sony AI's Ace robot beats elite table tennis players — https://techstartups.com/2026/04/23/sony-ais-ace-robot-beats-elite-table-tennis-players-in-real-world-matches/
- GitHub — Sony Research, kod i pseudokod projektu Ace — https://github.com/SonyResearch/ace_public





