FBI avverte di una truffa deepfake in corso che sfrutta figure governative

https://www.hdblog.it/sicurezza/articoli/n618705/fbi-truffa-audio-deepfake/

HDblog.it May 16, 2025 · 2 mins read
FBI avverte di una truffa deepfake in corso che sfrutta figure governative
Share this

Il problema dei deepfake sta diventando molto serio considerando l'avanzamento dell'intelligenza artificiale. Di recente ha colpito anche l'Italia, poiché una giornalista Rai si è ritrovata a prestare il volto, involontariamente, ad una truffa a sfondo farmaceutico. Adesso però ci spostiamo oltre il nostro Paese, con un monito che arriva direttamente dall’FBI: l'agenzia invita a prestare attenzione a una campagna di messaggistica dannosa in corso che sfrutta audio generato dall’AI per impersonare funzionari governativi, nel tentativo di indurre i destinatari a cliccare su link in grado di infettare i loro computer. L'avviso recita quanto segue:

Da aprile 2025, attori malintenzionati hanno impersonato alti funzionari statunitensi per prendere di mira individui, molti dei quali sono attuali o ex funzionari di alto livello del governo federale o statale USA e i loro contatti. Se ricevete un messaggio che afferma di provenire da un alto funzionario USA, non date per scontata la sua autenticità.

I creatori della campagna inviano messaggi vocali generati dall'AI, meglio conosciuti come deepfake, insieme a messaggi di testo “nel tentativo di creare un rapporto di fiducia prima di ottenere l’accesso ad account personali”, spiegano i funzionari dell’FBI. I deepfake utilizzano l’AI per imitare la voce e le caratteristiche di parlato di un individuo specifico. Le differenze tra la voce autentica e quella simulata sono spesso indistinguibili senza un’analisi esperta.

Un modo per ottenere accesso ai dispositivi delle vittime consiste nel chiedere se la conversazione possa continuare su un’altra piattaforma di messaggistica e poi convincere con successo la vittima a cliccare su un link malevolo sostenendo che consentirà di utilizzare la piattaforma alternativa.

Per quanto possano essere utili, le indicazioni non tengono conto di alcune sfide che i bersagli di queste truffe devono affrontare. Spesso, i truffatori creano un senso di urgenza affermando che esista un’emergenza in corso che richiede una risposta immediata.

In più, le tecniche di truffa che sfruttano l’intelligenza artificiale si evolvono e migliorano di giorno in giorno, rendendo sempre più difficile distinguere ciò che è vero da ciò che è falso. Non esiste una soluzione magica per difendersi da questo tipo di truffe. Ammettere che nessuno è immune dall’essere ingannato è fondamentale per potersi proteggere. Di conseguenza, per proteggersi efficacemente, i sistemi di difesa e identificazione non devono limitarsi a correre dietro alle nuove minacce, ma restare costantemente un passo avanti rispetto ai truffatori. Investire in tecnologie avanzate di autenticazione, formazione continua e collaborazione tra autorità, aziende e utenti è fondamentale per garantire che la sicurezza anticipi e neutralizzi le strategie malevole basate sull’AI.