ChatGPT alle prese con un enigma di Platone: errori umani e intuizioni sorprendenti

https://www.hdblog.it/tecnologia/articoli/n631951/chatgpt-problema-platone/

HDblog.it Sep 18, 2025 · 2 mins read
ChatGPT alle prese con un enigma di Platone: errori umani e intuizioni sorprendenti
Share this

Un esperimento condotto dall’Università di Cambridge ha messo alla prova ChatGPT con uno dei problemi matematici più antichi e noti della storia: il raddoppio del quadrato, descritto da Platone circa 2.400 anni fa. Il risultato ha lasciato sorpresi i ricercatori, che hanno osservato un comportamento simile a quello di un allievo in fase di apprendimento, fatto di tentativi, ipotesi e persino errori tipicamente umani.

Il cosiddetto “problema del quadrato” nasce nel dialogo platonico Menone, quando Socrate guida un giovane schiavo a comprendere come raddoppiare l’area di un quadrato. L’intuizione iniziale del ragazzo — raddoppiare la lunghezza del lato — si rivela sbagliata, perché porta a un’area quattro volte più grande. Attraverso domande mirate, Socrate lo porta invece a scoprire la soluzione corretta: costruire un quadrato con lati pari alla diagonale del primo.

Proprio questa antica lezione è stata proposta a ChatGPT-4 dai ricercatori Nadav Marco e Andreas Stylianides, che hanno adottato un approccio “socratico”, incalzando il chatbot con domande, correzioni ed errori inseriti ad arte. L’obiettivo era capire se l’AI si sarebbe limitata a riprodurre meccanicamente la soluzione classica, attingendo al suo vasto addestramento testuale, oppure se avrebbe cercato un proprio percorso di ragionamento.

La risposta è stata inattesa. Invece di richiamare subito la costruzione geometrica di Platone, ChatGPT ha tentato un approccio algebrico, metodo ovviamente sconosciuto nell’Atene del IV secolo a.C. Non solo: per diversi passaggi ha resistito all’invito a ricorrere a una spiegazione grafica, e soltanto dopo l’esplicita “delusione” espressa dagli studiosi ha proposto l’alternativa geometrica. Secondo Stylianides, se il modello si fosse limitato a un recupero mnemonico avrebbe menzionato subito la soluzione classica, mentre la sua esitazione suggerisce un comportamento più vicino a un apprendimento in tempo reale.

Ancora più curioso è stato l’errore commesso con un problema simile: quando gli è stato chiesto di raddoppiare l’area di un rettangolo, ChatGPT ha sostenuto che non esistesse alcuna soluzione geometrica possibile, nonostante in realtà ne esistano. Per i ricercatori, si tratta di un’“improvvisazione” nata dal collegamento con la diagonale del quadrato discusso in precedenza. Al contrario, sul triangolo ha saputo infine dare una risposta corretta, ma solo dopo ulteriori stimoli.

Questo comportamento “da studente” ha portato gli autori a richiamare il concetto pedagogico di “zona di sviluppo prossimale”: quello spazio in cui un allievo, da solo, non ha ancora la risposta, ma può arrivarci con l’aiuto di un insegnante. ChatGPT, in questo contesto, non è apparso come un semplice archivio di soluzioni, ma come un interlocutore capace di tentare strade nuove, anche a costo di sbagliare.

La ricerca è stata pubblicata sull’International Journal of Mathematical Education in Science and Technology e apre un dibattito interessante: l’AI può davvero imitare i percorsi di apprendimento umano, con tutte le incertezze che ne derivano.