Per anni i ricercatori di informatica teorica si sono scontrati con un enigma: fino a che punto si possono ridurre gli errori nei sistemi di calcolo quantistico? Ora arriva una risposta inattesa, e a darla non è stato un umano, ma GPT-5, l’AI di OpenAI.
Il problema riguarda QMA, l’equivalente quantistico di una classe di problemi complessi molto studiata in informatica, chiamata NP. In parole semplici, si tratta di capire se un computer quantistico può verificare la validità di una prova (una sorta di “testimonianza quantistica”) con un margine di errore sempre più piccolo. Da anni si sapeva che l’errore poteva ridursi parecchio, ma nessuno riusciva a dimostrare se esistesse un limite invalicabile.
Scott Aaronson, professore all’Università del Texas, e Freek Witteveen, ricercatore ad Amsterdam, stavano lavorando proprio su questo. A un certo punto, Aaronson ha chiesto aiuto a GPT-5. Le prime risposte dell’AI non hanno portato a nulla, ma insistendo è arrivata l’idea chiave: guardare il problema con una nuova funzione matematica capace di misurare quanto si poteva davvero ridurre l’errore.
Grazie a questa intuizione, i due scienziati hanno dimostrato che esiste un tetto massimo: la probabilità di accettare una prova corretta può avvicinarsi tantissimo a 1, ma non oltre un certo livello (doppia esponenziale), e allo stesso modo la probabilità di sbagliarsi non può scendere sotto una soglia precisa (esponenziale). In pratica, il margine di miglioramento è finito: non si può andare oltre.
Per gli addetti ai lavori, è un risultato molto importante, perché chiude un problema aperto da anni e chiarisce che altre domande simili — come se alcune classi di problemi quantistici siano davvero equivalenti — non potranno essere risolte con le stesse tecniche.
Al di là della parte tecnica, la notizia colpisce per un altro motivo: per la prima volta un modello di AI ha dato un contributo concreto a un problema di matematica teorica, un ambito visto finora come “puro territorio umano”. Aaronson stesso ha commentato sul suo blog che l’AI è arrivata a toccare “il cuore dell’attività intellettuale più umana che ci sia: dimostrare teoremi difficili”.
Certo, non tutti sono convinti della portata del contributo dell’AI: alcuni studiosi sostengono che l’idea non fosse così originale. Ma il fatto stesso che un modello generativo abbia fornito un’intuizione utile in un campo tanto astratto segna un passaggio di fase.