Un gruppo di ricercatori cinesi ha recentemente pubblicato uno studio che ha nuovamente come oggetto le capacità dell’intelligenza artificiale. Analizzando le risposte fornite da modelli linguistici di grandi dimensioni, i ricercatori hanno scoperto che alcune AI riescono a costruire rappresentazioni concettuali degli oggetti del mondo reale in modo sorprendentemente simile al cervello umano.
I test hanno coinvolto 1.854 oggetti naturali, tra cui animali, strumenti, cibi e mezzi di trasporto, sottoposti a domande del tipo “trova l’intruso”. Sono stati raccolti milioni di risposte da modelli testuali e multimodali, ovvero capaci di elaborare sia testo che immagini. In modo autonomo, le AI hanno iniziato a organizzare queste informazioni lungo 66 assi concettuali diversi, rappresentando qualità come la consistenza, l’uso, il contesto sociale o l’emotività associata a ciascun oggetto.
Questo processo ha rivelato una forma spontanea di classificazione, che non era stata preimpostata dagli sviluppatori, ma si è sviluppata durante l’interazione con i dati. Le mappe concettuali create da questi modelli ricordano da vicino le categorizzazioni che il cervello umano effettua naturalmente per orientarsi nel mondo. Alcuni esempi di queste categorie includono l’idoneità per i bambini, la pericolosità percepita, o l’ambiente tipico in cui un oggetto viene usato.
I modelli multimodali, in particolare, hanno mostrato una capacità superiore di allinearsi ai modi umani di ragionare. Il fatto che riescano a integrare visione e linguaggio in simultanea li rende più vicini alla nostra esperienza percettiva, in cui le parole e le immagini non sono separate, ma interagiscono continuamente.
Ciò che colpisce è anche la correlazione osservata tra le rappresentazioni generate dall’AI e l’attività cerebrale umana: alcuni schemi neurali risultano simili a quelli che si attivano nel cervello quando una persona guarda o pensa a un oggetto. Questo non significa che l’AI “pensi” come un essere umano, ma suggerisce una convergenza funzionale su modalità simili di rappresentare il mondo.
Naturalmente, va ricordato che l’AI non possiede esperienze vissute né una coscienza. La sua “comprensione” nasce dall’analisi statistica dei dati, non dal contatto fisico con la realtà. Tuttavia, il fatto che riesca a costruire schemi concettuali autonomamente rappresenta un passo importante verso sistemi più intuitivi e interattivi, capaci di integrarsi meglio con il modo umano di pensare.
Questi risultati sono in ogni caso interessanti, poiché aprono nuove prospettive in ambiti come la robotica, l’educazione e la collaborazione tra esseri umani e AI. Se i modelli linguistici possono sviluppare mappe concettuali senza una guida esplicita, potremmo trovarci sempre più vicini allo sviluppo di una forma di intelligenza artificiale generalista (come vorrebbe Meta), in grado di affrontare problemi complessi con una logica più naturale.