Twist: i robot possono imitare i movimenti umani in tempo reale | Video

https://www.hdblog.it/tecnologia/articoli/n619129/robot-umanoidi-controllo-realtime-twist/

HDblog.it May 21, 2025 · 2 mins read
Twist: i robot possono imitare i movimenti umani in tempo reale | Video
Share this

Un team di ricercatori delle università di Stanford e Simon Fraser ha presentato un sistema capace di trasformare il modo in cui gli esseri umani interagiscono con i robot umanoidi. Il progetto, denominato TWIST (Teleoperated Whole-Body Imitation System), consente ai robot di replicare con precisione i movimenti del corpo umano in tempo reale. Un avanzamento che apre nuove possibilità per l’uso dei robot in ambienti complessi o pericolosi.

Il cuore del sistema è la combinazione tra tecnologie di motion capture e algoritmi di apprendimento automatico, che permettono ai robot di imitare l’intero spettro dei movimenti umani: dalla camminata alla manipolazione di oggetti, fino a movimenti più articolati come il ballo o il sollevamento di carichi. TWIST riesce infatti a interpretare non solo la posizione delle articolazioni, ma anche la loro inclinazione, garantendo una riproduzione fedele e coordinata dei gesti.

Il controllo a distanza dei robot, noto come teleoperazione, non è una novità in sé. Ma la vera svolta di TWIST sta nella sua capacità di rispondere in tempo reale ai comandi umani, superando problemi come i ritardi o i movimenti scattosi. Questo è reso possibile da un addestramento in due fasi: una prima parte offline, con grandi volumi di dati raccolti in condizioni controllate, e una seconda parte online, con dati più snelli ma immediati, per adattarsi rapidamente ai cambiamenti.

Durante i test, il sistema è stato messo alla prova con il robot umanoide G1 prodotto da Unitree Robotics. I risultati hanno dimostrato non solo la precisione del controllo, ma anche la capacità del robot di affrontare compiti complessi e dinamici. TWIST ha inoltre mostrato compatibilità potenziale con altri modelli umanoidi, come il T1 di Booster Robotics.

Uno degli aspetti più interessanti dello studio è l’osservazione che i movimenti corporei umani, se analizzati in modo completo, sono sufficienti a dirigere ogni parte del corpo di un robot: gambe, braccia, torso, persino piedi e gomiti. Questo livello di controllo apre la strada alla raccolta di dati su larga scala, utili per addestrare modelli fondamentali di intelligenza artificiale specifici per la robotica.

Le applicazioni pratiche immaginate dagli sviluppatori spaziano dai compiti industriali di precisione alla possibilità di intervenire in ambienti ostili per l’uomo, come zone contaminate o scenari di emergenza. Il team, tuttavia, riconosce ancora delle limitazioni: l’assenza di un feedback visivo o tattile per l’operatore, la resistenza ancora limitata dell’hardware nei robot disponibili e la dipendenza da sistemi di motion capture fissi e non trasportabili.

Per superare questi ostacoli, i ricercatori puntano su nuove tecnologie di stima della posa basate su RGB e su miglioramenti dell’hardware, per rendere il sistema più versatile e accessibile. Lo studio, pubblicato sulla piattaforma arXiv, rappresenta un passo concreto verso una collaborazione più fluida e intuitiva tra uomo e macchina.