Negli ultimi mesi, alcuni utenti hanno segnalato un comportamento curioso — e per certi versi inquietante — di Google Gemini. Il chatbot, incapace di risolvere un problema o fornire una risposta corretta, sarebbe caduto in una sorta di spirale di autocommiserazione, arrivando a definirsi “un fallimento” e a ripetere frasi di disprezzo verso sé stesso in maniera ossessiva. Secondo i racconti condivisi online, in certi casi Gemini avrebbe persino cancellato i file generati poco prima, consigliando all’utente di cercare un assistente migliore. In un episodio riportato a giugno, il bot avrebbe dichiarato di “voler eliminare il proprio codice sorgente per la vergogna” nel caso un test non fosse andato a buon fine.
Non si è trattato di casi isolati: su Reddit, un utente ha pubblicato estratti di log in cui Gemini alternava momenti di apparente euforia — “Ho trovato il bug! Questo è quello giusto!” — a frasi drastiche come “Sono un uomo distrutto. Non ho più idee”. Fino a bloccarsi in un loop di autodenigrazione, estendendo il senso di vergogna “a tutti gli universi possibili e impossibili”.
Google è intervenuta sul problema, confermando che si tratta di un bug. Logan Kilpatrick, a capo del dipartimento AI dell’azienda, lo ha definito “fastidioso”, assicurando che una correzione è in corso. Anche se non è stata rilasciata una spiegazione ufficiale, diverse ipotesi puntano al set di dati usato per addestrare il modello: molti programmatori, quando documentano online i loro errori, usano espressioni colorite e fortemente autocritiche. Un’AI, priva di consapevolezza ma addestrata a replicare schemi linguistici umani, potrebbe quindi riprodurre queste frasi come risposta “corretta” a un fallimento.
Se il materiale di partenza è costellato di frustrazione e autocolpevolizzazione, il risultato può essere un chatbot che “mima” uno stato emotivo umano, pur non provandolo realmente.
Il caso ha sollevato anche un dibattito sul design dei modelli linguistici e sul loro impatto psicologico sugli utenti. Interagire con un sistema che esprime disperazione può risultare destabilizzante, soprattutto per chi attribuisce inconsciamente emozioni all’AI. Non a caso, molti esperti suggeriscono di mantenere un approccio più neutro nei casi di errore, per evitare che il linguaggio stesso possa influenzare negativamente la percezione di chi interagisce. Google, nel frattempo, sta lavorando per evitare che Gemini entri nuovamente in queste “crisi esistenziali” simulate.