L'avanzata degli strumenti di intelligenza artificiale generativa apre scenari creativi strabilianti, ma porta con sé anche ombre inquietanti. Un recente fenomeno virale su TikTok sta sollevando un'ondata di preoccupazione, mettendo in luce la facilità con cui queste nuove tecnologie possano essere sfruttate per diffondere messaggi d'odio. Brevi video, carichi di stereotipi razzisti, in particolare contro la comunità afroamericana, ma anche contenuti antisemiti o denigratori verso immigrati e persone di origine asiatica, hanno accumulato milioni di visualizzazioni sulla popolare piattaforma social.
L'allarme è stato lanciato dall'organizzazione no-profit Media Matters, un attento osservatore del panorama mediatico. I ricercatori hanno identificato una serie di filmati problematici che, secondo le loro analisi, sarebbero stati realizzati con Veo 3, il più recente e potente generatore video basato su AI presentato da Google solo lo scorso maggio. L'indizio principale che ha condotto a questa conclusione è un watermark con la scritta "Veo" visibile in un angolo dei filmati. A questo si aggiungono altri elementi, come la durata delle clip, spesso di soli otto secondi o composte da più segmenti di questa lunghezza, che corrisponde al limite attuale dello strumento di Google. In molti casi, gli stessi autori dei video hanno utilizzato hashtag o didascalie che facevano esplicito riferimento a Veo 3.
Questi contenuti tossici, uno dei quali ha superato da solo le 14 milioni di visualizzazioni, rappresentano una palese violazione delle normative delle piattaforme coinvolte. Google, nel presentare il suo strumento, assicura di avere sistemi per "bloccare richieste e risultati dannosi". Analogamente, le linee guida di TikTok specificano chiaramente che "i discorsi e i comportamenti che incitano all'odio non trovano posto su TikTok" e che la piattaforma non raccomanda contenuti che veicolano "stereotipi negativi su persone o gruppi con attributi protetti".
Di fronte alle scoperte di Media Matters, la reazione di TikTok non si è fatta attendere. Un portavoce della piattaforma, Ariane de Selliers, ha confermato l'impegno nell'applicare con fermezza le regole contro l'incitamento all'odio, dichiarando a The Verge che gli account segnalati nel rapporto sono stati rimossi, e che molti di essi erano già stati bloccati ancora prima della pubblicazione dell'inchiesta.
Il problema, tuttavia, non sembra confinato a una sola piattaforma. Inchieste giornalistiche di testate come Wired hanno rivelato la presenza di video simili, sebbene con un'eco minore, anche su altre piattaforme come Instagram e YouTube, a dimostrazione della natura pervasiva di questa nuova sfida digitale.
La facilità con cui è possibile generare video realistici da un semplice input testuale sta mettendo a dura prova le capacità di moderazione dei colossi tecnologici, costretti a inseguire la rapida evoluzione di strumenti che essi stessi hanno creato.