Nuova tecnologia neuromorfica: i robot saranno capaci di vedere e pensare in tempo reale

https://www.hdblog.it/tecnologia/articoli/n618506/neuromorphic-robotica-vista-reale/

HDblog.it May 16, 2025 · 2 mins read
Nuova tecnologia neuromorfica: i robot saranno capaci di vedere e pensare in tempo reale
Share this

Un team di ricercatori dell’Università RMIT in Australia ha messo a punto un innovativo dispositivo neuromorfico capace di emulare il funzionamento dei neuroni umani, aprendo la strada a robot umanoidi e veicoli autonomi dotati di una vista e di un pensiero in tempo reale. Il cuore della tecnologia è costituito da sottilissimi strati di disolfuro di molibdeno (MoS₂), materiale che risponde alla luce e si resetta velocemente, simulando il comportamento delle cellule cerebrali.

Questa scoperta, quando si concretizzerà, avrà un impatto potenzialmente trasformativo su tutte le tecnologie autonome che richiedono risposte rapide e intelligenti. Il dispositivo, che lavora senza bisogno di supporti informatici esterni, è in grado di rilevare movimenti, archiviare informazioni come ricordi e interpretare segnali visivi al momento stesso in cui li riceve. Le applicazioni più promettenti spaziano dalla robotica umana fino alla guida automatizzata e ai sistemi di assistenza avanzata.

Una delle principali novità è l'utilizzo di un modello ispirato al comportamento dei neuroni reali, chiamato leaky integrate-and-fire (LIF): un segnale elettrico si accumula fino a superare una soglia e quindi viene emesso un impulso, con conseguente reset del sistema. Questo ciclo simula fedelmente la comunicazione neurale e ora può essere replicato con estrema precisione grazie alla particolare struttura atomica del MoS₂.

A differenza di molti materiali testati in passato, i sottili strati di MoS₂ sono stati prodotti tramite deposizione chimica da vapore e dimostrano una reattività elettrica e luminosa quasi identica a quella delle cellule cerebrali. Regolando la tensione di controllo, il dispositivo è in grado di resettarsi istantaneamente, garantendo una prontezza che ricorda quella del cervello umano.

Durante le prove in laboratorio, i ricercatori hanno costruito una rete neurale a impulsi (spiking neural network, o SNN) che ha raggiunto un’accuratezza del 75% nell’analisi di immagini statiche dopo appena 15 cicli di addestramento, arrivando all’80% su dati dinamici dopo 60 cicli. Il dispositivo ha rilevato il movimento della mano tramite una tecnica di edge detection, evitando di acquisire ogni fotogramma e riducendo drasticamente l’uso di energia e dati.

Il professor Sumeet Walia, responsabile del progetto, ha sottolineato come questo dispositivo dimostri la possibilità di fondere in un unico elemento sia la capacità di captare la luce che quella di elaborare le informazioni, proprio come fanno occhio e cervello. “Possiamo simulare l’intelligenza visiva in modo efficiente, veloce e con un basso impatto energetico, senza l’ausilio di grandi infrastrutture computazionali,” ha dichiarato.

Thiha Aung, dottorando e primo autore dello studio, ha evidenziato che questa tecnologia rappresenta un’evoluzione rispetto ai precedenti esperimenti con luce ultravioletta, espandendo la possibilità d’uso nello spettro della luce visibile e aprendo le porte a futuri impieghi anche nell’infrarosso.

La sperimentazione prosegue ora verso la realizzazione di matrici pixelari più grandi e complesse, per arrivare a sistemi visivi integrati in robot e veicoli intelligenti. Inoltre, si lavora per migliorare ulteriormente l’efficienza energetica e la compatibilità con le tecnologie digitali tradizionali. L’obiettivo a lungo termine è sviluppare sensori intelligenti capaci di adattarsi e apprendere, con applicazioni in ambiti cruciali come l’assistenza personale, la sicurezza e il monitoraggio ambientale. Lo studio è stato pubblicato sulla rivista Advanced Materials Technologies.