Un nuovo risultato dal Giappone potrebbe cambiare il ritmo di sviluppo dei computer quantistici, da anni rallentato da un ostacolo ben preciso: la fragilità dei qubit. All’Institute of Science di Tokyo, un gruppo di ricercatori ha annunciato di aver messo a punto un codice di correzione degli errori capace di funzionare in modo efficiente anche su centinaia di migliaia di qubit, aprendo così la possibilità di arrivare un giorno a sistemi con milioni di qubit logici.
Il calcolo quantistico è spesso descritto come la chiave per affrontare problemi complessi in chimica, crittografia e ottimizzazione, ma ogni passo avanti si scontra con la natura instabile dei qubit. Le loro proprietà decadono in tempi rapidissimi e operazioni banali come misurazioni e applicazioni di porte logiche introducono errori significativi. Per questo motivo, oggi, servono migliaia di qubit fisici per costruire un solo qubit logico affidabile, una sproporzione che ha frenato lo sviluppo su larga scala.
Il team guidato da Kenta Kasai, professore associato, ha lavorato a una nuova classe di codici LDPC (Low-Density Parity-Check), progettati per avvicinarsi al cosiddetto “hashing bound”, il limite teorico massimo di efficienza nella correzione quantistica degli errori. L’aspetto innovativo è duplice: da un lato, questi codici hanno un tasso di codifica superiore al 50%, riducendo lo spreco di risorse; dall’altro, il processo di decodifica cresce in complessità solo in proporzione al numero di qubit fisici, una caratteristica che rende la tecnica scalabile.
Il risultato è stato ottenuto combinando più approcci: l’uso di codici LDPC fotografici, l’introduzione di permutazioni affini per rendere la struttura più varia e resistente, e il ricorso alla matematica non binaria per aumentare l’informazione trattata in ogni passaggio. Questi codici sono poi stati convertiti in codici CSS (Calderbank-Shor-Steane), una delle architetture più diffuse nella correzione degli errori quantistici.
Il cuore della proposta risiede nel metodo di decodifica, basato sull’algoritmo “sum-product”, capace di affrontare simultaneamente entrambi i principali tipi di errore quantistico: i bit-flip (X) e i phase-flip (Z). In molti codici precedenti i due venivano trattati separatamente, aumentando la complessità e il rischio di inefficienze.
Nei test, anche con centinaia di migliaia di qubit, il tasso di errore complessivo si è mantenuto attorno a 10⁻⁴, un valore sorprendentemente vicino al limite teorico di perfezione. Questo traguardo rende plausibile, almeno su carta, la possibilità di arrivare a milioni di qubit logici, aprendo la strada a un calcolo quantistico realmente applicabile su problemi concreti e non solo su dimostrazioni di laboratorio.
Kasai ha sottolineato che questo passo non significa la fine delle sfide, ma un punto di svolta: un codice con queste proprietà potrebbe infatti rendere possibile costruire macchine quantistiche affidabili, adatte a campi che vanno dalla ricerca sui materiali all’ottimizzazione di reti complesse.