Google non correggerà "ASCII smuggling", una vulnerabilità nota nel modello Gemini

https://www.hdblog.it/google/articoli/n634306/google-vulnerabilita-nota-gemini/

HDblog.it Oct 09, 2025 · 2 mins read
Google non correggerà
Share this

Google ha deciso che non correggerà una vulnerabilità accertata nel suo modello Gemini, nonostante la segnalazione di un ricercatore di sicurezza che ne ha dimostrato la pericolosità. "ASCII smuggling", questo il nome dell'exploit, consente di inserire caratteri del tutto invisibili ma leggibili dall'AI, capaci di alterarne il comportamento durante l'elaborazione del testo.

Google, in risposta alla segnalazione di FireTail, ha classificato il problema come un caso di "ingegneria sociale" e non come una vera e propria vulnerabilità tecnica. In sostanza, la società ritiene che la responsabilità ricada sull'utente che fornisce input malevoli, e non sul design del modello.

La posizione di Google ha suscitato perplessità soprattutto perché Gemini è integrato con servizi sensibili come Gmail, Calendar e Documenti. In questi contesti, la possibilità di introdurre comandi nascosti attraverso messaggi o email potrebbe favorire la manipolazione di dati o la diffusione di contenuti ingannevoli, senza che l'utente se ne accorga.

L'ATTACCO E IL COMPORTAMENTO DI GEMINI

La vulnerabilità è stata scoperta dal ricercatore Viktor Markopoulos, di FireTail, che ha mostrato dettagliatamente il modo in cui l'attacco sfrutti simboli di controllo o caratteri Unicode non visibili sullo schermo ma interpretati dal modello come istruzioni operative.

Durante i test, Markopoulos ha dimostrato che un testo apparentemente innocuo — ad esempio un invito a una riunione o un'email di lavoro — può contenere caratteri nascosti in grado di indurre Gemini a riscrivere informazioni, modificare dettagli di un evento o generare risposte distorte. L'attacco risulta difficile da individuare proprio perché ciò che l'utente vede è diverso da ciò che l'AI interpreta.

Il ricercatore ha inoltre confrontato il comportamento di Gemini con altri modelli, come ChatGPT di OpenAI, Claude di Anthropic e Copilot di Microsoft. In questi casi, i sistemi hanno bloccato o sanitizzato gli input sospetti, mentre Gemini, insieme a Grok di Elon Musk e al modello cinese DeepSeek, non ha impedito l'esecuzione delle istruzioni invisibili.

LE ALTRE CORREZIONI DI GOOGLE E LE IMPLICAZIONI FUTURE

Nel corso dell'anno Google ha corretto altre vulnerabilità note del suo sistema, riunite sotto la denominazione “Gemini Trifecta”, che riguardavano i log, i riassunti di ricerca e le cronologie di navigazione. Tuttavia, nel caso dell'“ASCII smuggling”, l'azienda ha scelto di non intervenire, sostenendo che la minaccia non derivi da un errore interno ma dal modo in cui gli utenti interagiscono con il modello.

La vicenda riporta in primo piano una questione cruciale per la sicurezza dell'AI: la capacità dei modelli di distinguere tra testo e codice nascosto. Una distinzione che, se ignorata o sottovalutata, rischia di trasformarsi in un serio problema di affidabilità e di tutela dei dati.