
Otwarty world-model-action od Unitree: generatywny model wideo jako symulator i wzmacniacz polityki sterowania robotami.
🔬 Research🔬 Research only⚖ Open weightsModel świataBazowy model robotycznyModel wzrok-język-akcja
Data premiery
15 września 2025
Dostęp:DownloadWdrożenie:💻 Lokalnie☁ Cloud
Przegląd
Klasyfikacja
Model świataBazowy model robotycznyModel wzrok-język-akcja
Zastosowania
Dostęp i wdrożenie
Pobieranie
LokalnieChmura
Wagi: Open weights
Kluczowe parametry
✓ Fine-tuning
📥 Wejście: wideo, obraz, dane stanu robota, sensory robota
Robotyka
Robot manipulationRobot controlMotion planningEnvironment modelingSpatial predictionScene understandingDexterous manipulation
Specyfikacja techniczna
Licencja
CC BY-NC-SA 4.0
Funkcje:✓ Fine-tuning
Modalności
⬇ Wejście (Input)
videoimagerobot_state_datarobot_sensors
⬆ Wyjście (Output)
videorobot_actionsmotion_trajectories
Możliwości i zastosowania
Natywne możliwości modelu
Rozumienie wideo
Zdolność analizy wideo poprzez przetwarzanie sekwencji klatek.
Kategoria: video
Robotyka
Robot manipulationRobot controlMotion planningEnvironment modelingSpatial predictionScene understandingDexterous manipulation
Architektura techniczna
Rdzeń architektury (Core Architecture)
Forma modelu (Model Form)
Techniki trenowania (Training Techniques)
Wdrożenie i bezpieczeństwo
🤖 Powiązane roboty