Robocikowo>ROBOCIKOWO
UnifoLM-WMA-0

UnifoLM-WMA-0

0 (Base / Dual)
Otwarty world-model-action od Unitree: generatywny model wideo jako symulator i wzmacniacz polityki sterowania robotami.
🔬 Research🔬 Research only⚖ Open weightsModel świataBazowy model robotycznyModel wzrok-język-akcja
Data premiery
15 września 2025
Dostęp:DownloadWdrożenie:💻 Lokalnie☁ Cloud

Przegląd

UnifoLM-WMA-0 to otwarty (CC BY-NC-SA 4.0) framework klasy World-Model-Action od Unitree Robotics, łączący generatywny model świata (wideo) z głowicą akcji. Model uczy się fizyki interakcji robot–środowisko z dużych zbiorów danych (m.in. Open-X-Embodiment) i działa w dwóch trybach: (1) Symulatora — generuje przyszłe klatki wideo warunkowane akcjami robota, dostarczając tani, fotorealistyczny silnik symulacyjny do treningu i ewaluacji polityk; (2) Policy Enhancement — wewnętrzny world-model „wyobraża sobie" konsekwencje akcji i poprawia jakość polityki sterowania. Dostępne są warianty UnifoLM-WMA-0-Base oraz UnifoLM-WMA-0-Dual.

Klasyfikacja
Model świataBazowy model robotycznyModel wzrok-język-akcja
Dostęp i wdrożenie
Pobieranie
LokalnieChmura
Wagi: Open weights
Kluczowe parametry
✓ Fine-tuning
📥 Wejście: wideo, obraz, dane stanu robota, sensory robota
Robotyka
Robot manipulationRobot controlMotion planningEnvironment modelingSpatial predictionScene understandingDexterous manipulation

Specyfikacja techniczna

Licencja
CC BY-NC-SA 4.0
Funkcje:Fine-tuning
Modalności
⬇ Wejście (Input)
videoimagerobot_state_datarobot_sensors
⬆ Wyjście (Output)
videorobot_actionsmotion_trajectories

Możliwości i zastosowania

Natywne możliwości modelu
Rozumienie wideo
Zdolność analizy wideo poprzez przetwarzanie sekwencji klatek.
Kategoria: video
Robotyka
Robot manipulationRobot controlMotion planningEnvironment modelingSpatial predictionScene understandingDexterous manipulation

Architektura techniczna

Rdzeń architektury (Core Architecture)
Forma modelu (Model Form)

Wdrożenie i bezpieczeństwo