Potrebbero censurare ma non vogliono: il porno non consensuale prospera perché genera miliardi di dollari

https://www.alfemminile.com/culture/potrebbero-censurare-ma-non-vogliono-il-porno-non-consensuale-prospera-perche-genera-miliardi-di-dollari/

(La redazione di fem) Oct 28, 2025 · 4 mins read
Potrebbero censurare ma non vogliono: il porno non consensuale prospera perché genera miliardi di dollari
Share this

La domanda di partenza è: nell'attesa che gli uomini vengano educati alla cultura del consenso, come mai le intelligenze artificiali non censurano la produzione di immagini pornografiche, per esempio con dei filtri? La risposta è follow the money: la pista dei soldi di solito è quella che più spesso conduce alla realtà dei fatti, triste per quanto sia.

"I ragazzi chiedono l'educazione sessuale nelle scuole, non lasciamola al porno": Luciana Littizzetto vs Valditara al secondo round

Allora partiamo subito dicendo che un modello di AI diciamo "commerciale" e di grandi dimensioni perderebbe dal 15 al 25 per cento del traffico se ci fossero dei filtri anti-deepfake efficaci (gli utenti che cercano questi spazi sono, ahinoi, una marea). I filtri oltretutto avrebbero anche dei costi vivi in più per via della potenza di calcolo extra e della manutenzione. Ed è per questo che i filtri seri non vengono messi: non c’è incentivo economico, solo morale. E la morale, nel capitalismo digitale, non ha ancora un budget. Ma andiamo con ordine.

l'ennesimo sito in cui c'è scambio di immagini porno deepfake

Nei giorni scorsi la giornalista Francesca Barra ha denunciato pubblicamente la diffusione di sue immagini false, generate con l’intelligenza artificiale e condivise in un sito con oltre sette milioni di utenti. È solo l’ultimo caso di una lunga scia di violenza digitale resa possibile — e redditizia — da una tecnologia che corre più veloce delle tutele. L’AI oggi può creare un corpo che non esiste, rubare dal web e dai social il volto di qualcuno che non ha mai acconsentito, trasformare tutto in una immagine pornografica che diventa strumento di business. E non è più un gioco da smanettoni, come era prima: oggi è talmente facile che chiunque, letteralmente, può dare questo comando alle Ai commerciali.

Il risultato è una filiera che produce contenuti sessualizzati a danno di donne reali e li diffonde con algoritmi ottimizzati per il traffico, spesso dentro social network perfettamente legali. La parte più amara è che i filtri per impedire questo scempio esistono ma non vengono implementati e non vengono implementati perché le aziende perderebbero soldi: più potenza di calcolo, più manutenzione, più ritardi nelle risposte agli utenti. Per un’azienda commerciale significa margini ridotti e traffico perso: nessuno li mette perché il ritorno economico non giustifica la spesa.

Perché, come sempre quando la tecnologia incrocia il potere economico, non conviene ancora a nessuno filtrare niente. Allora le grandi piattaforme preferiscono un equilibrio in cui la morale c'è per finta: filtrare, censurare, ma solo un po’. Le aziende open source (quelle cioè che puù usare chiunque sia collegato/a a internet) si trincerano dietro la libertà d’uso. Tradotto: noi diamo lo strumento, non siamo responsabili se qualcuno lo usa male.

Poi c’è il ritardo della regolamentazione: il Digital Services Act e l’AI Act europeo parlano di watermark (una specie di bollino che identifica l'autore di un file) e trasparenza, ma le sanzioni reali non sono ancora arrivate. E finché le multe restano teoriche, le aziende si limitano ad annunciare filtri simbolici per rassicurare l’opinione pubblica e però poi proseguono indisturbate.

la violenza di genere online vale almeno cinquanta miliardi di dollari all'anno

Va detto che anche i filtri, in sé, non sono una panacea. Se troppo rigidi, bloccano pure i contenuti artistici o educativi. Infatti c'è poi il tema della censura: nessuna azienda vuole passare per censore, soprattutto in mercati dove l’erotismo è un business legittimo. E molto, molto remunerativo. Al netto della preoccupazione per la censura di opere d'arte (che è un tema reale e lo sappiamo) la pornografia online genera diversi milioni all'anno.

Report di settore danno numeri intorno a 50–75 miliardi di dollari per l'intero mercato online: un paniere che include tutto sia piattaforme legittime che quelle illegittime, abbonamenti, video on‑demand, deepfake. Allora di che parliamo?

 I flussi di ricavo principali sono ovviamente la pubblicità, gli spazi venduti sulle pagine di aggregazione, gli abbonamenti e gli "accessi premium" a collezioni o funzionalità diversamente chiusi, la vendita di deepfake su misura, su ordinazione diciamo. Ovviamente queste modalità rendono redditizia anche una piattaforma con bassi costi di produzione (visto che i contenuti sono generati dagli stessi utenti) e i costi operativi relativamente contenuti.

cosa potrebbe porre fine a questo mercato illegale di immagini

Allora: è vero che l'educazione al consenso e alla sessualità sarebbe un buon freno alla cultura dello stupro (questo c'è dietro alla creazione di porno deepfake). Ma è anche vero che è utopico e ingenuo pensare che basterebbe a porre fine all'uso violento che le persone fanno di strumenti comuni.

Ci vorrebbe banalmente un protocollo comune: le aziende dovrebbero adottare ciascuna un proprio sistema di watermark, nel frattempo dovrebbero intervenire le istituzioni - però sul serio - con sazioni reali e non solo proclamate. Sarebbe bello dire che la colpa è solo degli utenti, ma si tratterebbe di confondere colpa con responsabilità. Gli utenti agiscono, ma le aziende scelgono di non impedire.