Współpraca giganta technologicznego NVIDIA z firmą PSYONIC wprowadza ramy „real-to-real”, które mogą radykalnie przyspieszyć naukę manipulacji u robotów. Dzięki integracji protezy Ability Hand z platformą Isaac Lab, dane o ludzkim dotyku i precyzji trafiają bezpośrednio do systemów AI, eliminując dotychczasowe bariery w szkoleniu maszyn.
Najważniejsze w skrócie
- Integracja sprzętowa: PSYONIC Ability Hand staje się natywnym zasobem w środowisku symulacyjnym Nvidia Isaac Lab.
- Transfer Real-to-Real: Nowatorskie podejście polegające na przechwytywaniu danych z fizycznej pracy człowieka i przenoszeniu ich na różne platformy robotyczne.
- Zaawansowana sensoryka: Wykorzystanie czujników dotyku o wysokiej wierności do nauki manipulacji delikatnymi obiektami.
- Skalowanie: Możliwość retargetowania ruchów ludzkiej dłoni na ramiona przemysłowe, roboty humanoidalne oraz czworonożne.
Nowa era zbierania danych: Od protezy do autonomicznej inteligencji
W świecie robotyki największym wąskim gardłem nie jest już moc obliczeniowa, lecz brak wysokiej jakości danych dotyczących interakcji fizycznych. Podczas gdy modele językowe czerpią z miliardów słów w Internecie, roboty muszą uczyć się „czucia” świata poprzez żmudne próby. Firma PSYONIC ogłosiła właśnie strategiczną współpracę z NVIDIA, która ma na celu rozwiązanie tego problemu poprzez framework „real-to-real”.
Kluczowym elementem tej współpracy jest Ability Hand – bioniczna proteza dłoni, która została uznana za jeden z najszybszych i najbardziej wytrzymałych systemów tego typu na rynku. Dzięki włączeniu jej do biblioteki aktywów NVIDIA Isaac Lab, badacze zyskali narzędzie, które łączy świat biomechaniki z zaawansowaną symulacją Physical AI.
Jak działa transfer „real-to-real”?
Tradycyjne podejście Sim2Real zakłada trenowanie robota w cyfrowym świecie, a następnie próbną implementację w rzeczywistości. PSYONIC i NVIDIA odwracają ten proces lub raczej tworzą zamkniętą pętlę.
- Przechwytywanie: Człowiek noszący Ability Hand wykonuje precyzyjne zadanie (np. podnoszenie miękkiego ciastka Twinkie).
- Sensoryka: Czujniki dotyku w palcach protezy rejestrują siłę nacisku i teksturę, przesyłając te dane do systemu.
- Mapowanie: Algorytmy, takie jak OmniRetarget, analizują 21 kluczowych punktów ruchu i przenoszą je na dowolne inne embodimenty (ciała robotów).
W jednej z demonstracji pokazano, jak dane zebrane przez człowieka sterującego Ability Hand pozwalają różnym robotom – od ramion przemysłowych po humanoidalne platformy – na wykonanie tego samego, delikatnego zadania z identyczną precyzją.
Przełamanie problemu „bezdusznych” danych
Dotychczasowe szkolenie robotów często opierało się na danych „actionless” (pozbawionych akcji), czyli np. analizie nagrań wideo, gdzie AI próbuje zgadnąć, jaka siła została użyta do przesunięcia przedmiotu. Jak zauważa dr Adeel Akhtar, dyrektor generalny PSYONIC, brak wysokiej jakości danych o manipulacji to jedna z największych barier w branży.
Wykorzystanie modelu DreamDojo pozwala na naukę „intuicyjnej fizyki”. Zamiast polegać wyłącznie na czystej syntetyce, systemy NVIDIA korzystają teraz z fizycznie ugruntowanych danych interakcji. Oznacza to, że robot „wie”, jak mocno ścisnąć obiekt, ponieważ otrzymał precyzyjny zapis tensometryczny z ludzkiego działania przeprowadzonego na tym samym sprzęcie.
Porównanie metod szkolenia manipulacji robotycznej
CechaTradycyjne Sim2RealUczenie z wideo (Actionless)Real-to-Real (PSYONIC/NVIDIA)Źródło danychMatematyczna symulacjaNagrania YouTube / ArchiwaFizyczna interakcja ludzkaInformacja zwrotnaBrak czucia wirtualnegoTylko wizualnaPełna sensoryka dotykowaCzas wdrożeniaDługi (wymaga kalibracji)Średni (ryzyko błędów fizyki)Krótki (bezpośredni transfer)PrecyzjaWysoka w znanym środowiskuNiska przy nowych obiektachBardzo wysoka (Master-level)
Skalowanie zręczności na wiele platform
To, co wyróżnia współpracę z NVIDIA, to uniwersalność. Ability Hand nie jest traktowana jedynie jako proteza dla ludzi, ale jako standardowy efektor końcowy (end-effector) dla robotyki. Można ją zamontować na robocie Unitree czy ramieniu KUKA, a system sterowania oparty na projekcie GROOT zapewni spójność ruchów.
Wspomniany framework pozwala na ekstrakcję danych, które są następnie skalowane zgodnie z prawami odkrytymi w badaniach LogScale. NVIDIA sugeruje, że istnieje przewidywalna zależność między objętością danych pochodzących od ludzi a sukcesem robotycznym w świecie rzeczywistym. Dzięki Ability Hand, zbieranie tych „tokenów fizycznych” staje się znacznie prostsze.
Dlaczego to ważne?
Z perspektywy rozwoju sztucznej inteligencji, ogłoszenie NVIDIA i PSYONIC to sygnał, że branża przechodzi z fazy „czystego AI” (LLM, obrazy) do fazy „Physical AI”. Jest to moment, który niektórzy eksperci nazywają „momentem GPT-2 dla robotyki”. Dlaczego? Ponieważ po raz pierwszy mamy do czynienia z tak głęboką integracją wysokiej klasy sprzętu sensorycznego z potężnym silnikiem symulacyjnym.
Można to odczytywać jako próbę stworzenia uniwersalnego „układu nerwowego” dla maszyn. Dotychczas roboty były sprawne mechanicznie, ale „ślepe” na subtelności dotyku. Ability Hand dostarcza brakujących receptorów, a platforma Isaac Lab – mózgu zdolnego do przetworzenia tych bodźców. Dla rynku oznacza to demokratyzację dostępu do zaawansowanej manipulacji. Mniejsze laboratoria nie muszą już budować własnych systemów sensorycznych od zera; mogą skorzystać z gotowego, zintegrowanego stosu technologicznego. To fundamentalny krok w stronę robotów, które nie tylko wykonują zaprogramowane trajektorie, ale potrafią adaptować się do delikatności i zmienności otoczenia tak samo dobrze jak my.
Co dalej?
- Standaryzacja sprzętu: Ability Hand ma szansę stać się „standardowym płótnem” dla badaczy manipulacji, podobnie jak Unitree G1 stał się nim dla badań nad lokomocją.
- Rozwój modeli VLA: Dane z dotyku będą integrowane z modelami Vision-Language-Action (VLA), co pozwoli robotom rozumieć polecenia typu „podnieś to delikatnie, by nie uszkodzić”.
- Wdrożenia przemysłowe: Oczekuje się, że technologia ta trafi do fabryk, gdzie wymagany jest montaż drobnych elementów elektronicznych, dotychczas niemożliwy do pełnej automatyzacji.
Źródła
- Humanoids Daily – From Prosthetics to Pixels: PSYONIC and NVIDIA Bridge the Robotics "Data Gap" – https://www.humanoidsdaily.com/news/from-prosthetics-to-pixels-psyonic-and-nvidia-bridge-the-robotics-data-gap-with-real-to-real-transfer
- PSYONIC Official – Ability Hand Press Release – https://www.psyonic.io/news/press-release-psyonic-amp-nvidia-officially-announce-collaboration-at-nvidia-gtc-2026





