La ricerca di nuovi farmaci e lo sviluppo di terapie personalizzate rappresentano una delle sfide più complesse e costose della medicina moderna. Analizzare il comportamento delle proteine e vagliare miliardi di molecole per trovare quella giusta richiede una potenza di calcolo immensa e tempi spesso proibitivi.
Un nuovo, straordinario strumento sta però per entrare in campo, promettendo di accelerare questo processo in modi finora impensabili. L'Università di Lipsia, in Germania, si appresta infatti a ospitare il più grande supercomputer al mondo ispirato al cervello umano, progettato specificamente per la scoperta di farmaci. Frutto di un accordo con la società deep-tech SpiNNcloud, questo sistema rappresenta un balzo tecnologico notevole nel campo della ricerca molecolare.
Al cuore di questa macchina batte un'architettura unica, composta da circa 650.000 core di processori ARM, distribuiti su 4.320 chip. A differenza dei supercomputer tradizionali che si affidano a potenti GPU, questo sistema adotta un approccio "neuromorfico", ovvero imita la struttura e il funzionamento delle reti neurali del cervello umano. Il progetto si basa sulla seconda generazione dell'hardware SpiNNaker, un'idea pionieristica di Steve Furber, una delle menti dietro la celebre architettura ARM presente in quasi tutti i nostri smartphone. Questa struttura, composta da un'enorme quantità di processori a basso consumo, è pensata per gestire in modo incredibilmente efficiente carichi di lavoro estremamente complessi e paralleli, proprio come fa il nostro cervello quando elabora migliaia di stimoli contemporaneamente.
Le capacità del sistema sono sbalorditive. Christian Mayr, co-fondatore di SpiNNcloud, ha spiegato come un prototipo basato sulla stessa tecnologia sia stato in grado di analizzare 20 miliardi di molecole in meno di un'ora, un'operazione che richiederebbe una velocità di due ordini di grandezza superiore rispetto a un cluster di 1.000 core di CPU tradizionali. Questa efficienza non si misura solo in termini di velocità, ma anche di consumo energetico. Hector Gonzalez, CEO e co-fondatore dell'azienda, ha sottolineato che l'architettura è fino a 18 volte più efficiente dal punto di vista energetico rispetto alle attuali GPU, un fattore cruciale per applicazioni su larga scala dove i costi di alimentazione e raffreddamento sono un limite significativo.
Il sistema installato a Lipsia non si limiterà a simulare il comportamento delle proteine, ma aprirà la strada a uno screening molecolare su vasta scala, rendendo finalmente fattibile l'analisi di miliardi di composti in silico, cioè tramite simulazione al computer. Le sue potenzialità, però, vanno oltre la medicina. L'architettura è particolarmente adatta per un concetto emergente nell'AI noto come "sparsità dinamica".
Invece di attivare intere reti neurali per ogni calcolo, come fanno i modelli di AI convenzionali, questo approccio attiva solo i percorsi specifici necessari per un dato compito, proprio come fa il cervello, garantendo un risparmio energetico e una velocità di calcolo senza precedenti. Questa tecnologia non solo fornirà un alleato formidabile alla ricerca medica, ma potrebbe anche tracciare la rotta per la prossima generazione di modelli fondativi di AI.