Il problema dei deepfake sta diventando molto serio considerando l'avanzamento dell'intelligenza artificiale. Di recente ha colpito anche l'Italia, poiché una giornalista Rai si è ritrovata a prestare il volto, involontariamente, ad una truffa a sfondo farmaceutico. Adesso però ci spostiamo oltre il nostro Paese, con un monito che arriva direttamente dall’FBI: l'agenzia invita a prestare attenzione a una campagna di messaggistica dannosa in corso che sfrutta audio generato dall’AI per impersonare funzionari governativi, nel tentativo di indurre i destinatari a cliccare su link in grado di infettare i loro computer. L'avviso recita quanto segue:
Da aprile 2025, attori malintenzionati hanno impersonato alti funzionari statunitensi per prendere di mira individui, molti dei quali sono attuali o ex funzionari di alto livello del governo federale o statale USA e i loro contatti. Se ricevete un messaggio che afferma di provenire da un alto funzionario USA, non date per scontata la sua autenticità.
I creatori della campagna inviano messaggi vocali generati dall'AI, meglio conosciuti come deepfake, insieme a messaggi di testo “nel tentativo di creare un rapporto di fiducia prima di ottenere l’accesso ad account personali”, spiegano i funzionari dell’FBI. I deepfake utilizzano l’AI per imitare la voce e le caratteristiche di parlato di un individuo specifico. Le differenze tra la voce autentica e quella simulata sono spesso indistinguibili senza un’analisi esperta.
Un modo per ottenere accesso ai dispositivi delle vittime consiste nel chiedere se la conversazione possa continuare su un’altra piattaforma di messaggistica e poi convincere con successo la vittima a cliccare su un link malevolo sostenendo che consentirà di utilizzare la piattaforma alternativa.
Per quanto possano essere utili, le indicazioni non tengono conto di alcune sfide che i bersagli di queste truffe devono affrontare. Spesso, i truffatori creano un senso di urgenza affermando che esista un’emergenza in corso che richiede una risposta immediata.
In più, le tecniche di truffa che sfruttano l’intelligenza artificiale si evolvono e migliorano di giorno in giorno, rendendo sempre più difficile distinguere ciò che è vero da ciò che è falso. Non esiste una soluzione magica per difendersi da questo tipo di truffe. Ammettere che nessuno è immune dall’essere ingannato è fondamentale per potersi proteggere. Di conseguenza, per proteggersi efficacemente, i sistemi di difesa e identificazione non devono limitarsi a correre dietro alle nuove minacce, ma restare costantemente un passo avanti rispetto ai truffatori. Investire in tecnologie avanzate di autenticazione, formazione continua e collaborazione tra autorità, aziende e utenti è fondamentale per garantire che la sicurezza anticipi e neutralizzi le strategie malevole basate sull’AI.