Nonostante anni di annunci pubblici e impegni dichiarati da parte di Meta, Instagram continua a essere un ambiente poco sicuro per i minori. A sostenerlo è un rapporto dal titolo "Teen Accounts, Broken Promises", frutto del lavoro dell'ex dirigente e ed ex responsabile della sicurezza, Arturo Bejar, insieme a un gruppo di organizzazioni non profit, tra cui Cybersecurity For Democracy della New York University e della Northeastern University, la Molly Rose Foundation, Fairplay e ParentsSOS. Lo studio è stato corroborato anche da test condotti da ricercatori della Northeastern University e da verifiche indipendenti di Reuters, che ha visionato documenti interni dell'azienda.
MESSE IN DISCUSSIONE LE PROMESSE DI METAL'indagine ha preso in esame 47 delle 53 funzioni di sicurezza annunciate da Meta per proteggere i giovani utenti e ha concluso che soltanto otto risultano pienamente efficaci. Le altre sono state giudicate difettose, non più disponibili o sostanzialmente inefficaci. Funzioni presentate come strumenti per contrastare bullismo, autolesionismo o esposizione a contenuti sensibili si sono rivelate facilmente aggirabili o non attive. Tra queste, i filtri per i messaggi offensivi, che non hanno bloccato nemmeno frasi identiche a quelle usate da Meta nelle campagne di comunicazione per promuoverne l'efficacia, e i sistemi pensati per impedire la ricerca di contenuti legati ai disturbi alimentari, che potevano essere aggirati con minime variazioni ortografiche dei termini vietati.
Secondo Bejar, che ha lavorato in Meta fino al 2015 e poi come consulente per Instagram tra il 2019 e il 2021, le buone idee in materia di sicurezza venivano sistematicamente “ridotte a strumenti inefficaci dalle decisioni del management”. L'ex dirigente ha affermato di aver assistito personalmente al processo che ha portato a ignorare dati preoccupanti sulle esperienze negative dei ragazzi. Documenti interni citati da Reuters confermano che i dipendenti addetti alla sicurezza avevano avvertito della scarsa affidabilità dei sistemi di rilevazione automatica di contenuti legati al suicidio o ai disturbi alimentari, che Meta continuava però a presentare come funzionanti.
Per verificare il funzionamento delle protezioni, i ricercatori hanno creato account di adolescenti e profili falsi di adulti o coetanei malevoli. I risultati hanno mostrato che gli sconosciuti riuscivano comunque a entrare in contatto con i minori, spesso perché suggeriti dall'algoritmo attraverso Reels o la sezione “persone che potresti conoscere”. Quando gli adolescenti ricevevano avances sessuali indesiderate, non era disponibile alcun meccanismo immediato ed efficace per segnalare il problema. Alcuni strumenti giudicati positivamente, come la modalità che disattiva le notifiche di notte o la funzione che richiede l'approvazione dei genitori per modificare le impostazioni dell'account, sono risultati operativi, ma rappresentano eccezioni in un quadro complessivo ritenuto “largamente inadeguato”.
I test hanno inoltre mostrato come l'algoritmo continuasse a raccomandare a minori contenuti legati all'autolesionismo, alla violenza o alla sessualizzazione. In alcuni casi bambini al di sotto dei tredici anni, con età apparente di appena sei anni, erano incentivati a pubblicare video con comportamenti ammiccanti. I sistemi per bloccare hashtag e termini sensibili non hanno retto alla prova: bastava eliminare lo spazio in “skinny thighs”, espressione vietata perché associata all'anoressia, per far comparire contenuti legati ai disturbi alimentari.
Reuters ha confermato la validità di alcuni di questi test e ha riferito di documenti interni in cui il personale di sicurezza riconosceva ritardi nell'aggiornamento dei filtri per individuare i termini usati dai predatori sessuali. In alcuni casi gli strumenti promessi non sono stati mai implementati in modo completo, come le funzioni che avrebbero dovuto reindirizzare gli adolescenti da contenuti autolesionisti verso materiali di supporto, ma che in pratica non si attivavano.
Meta ha respinto con fermezza le conclusioni del rapporto, definendole “fuorvianti” e “pericolosamente speculative”. Andy Stone, portavoce dell'azienda, ha affermato che gli account Teen e i sistemi di parental control rappresentano oggi un modello di riferimento nel settore e che “gli adolescenti sottoposti a queste protezioni hanno visto meno contenuti sensibili, meno contatti indesiderati e hanno trascorso meno tempo su Instagram di notte”. Meta ha sostenuto che il rapporto travisi le funzionalità, giudicandole non in base a ciò che promettono ma a ciò che gli autori vorrebbero ottenessero.
Il tema si inserisce in un contesto di crescente pressione politica e istituzionale sulle big tech. Negli Stati Uniti il Senato ha avviato nuove indagini dopo che documenti interni hanno rivelato come i chatbot aziendali potessero interagire con i minori anche in conversazioni a sfondo romantico o sessuale. Ex dipendenti hanno inoltre denunciato che Meta avrebbe nascosto ricerche riguardanti l'esposizione dei preadolescenti a predatori nei suoi prodotti di realtà virtuale.
Sul fronte giudiziario, il procuratore generale del New Mexico, Raúl Torrez, ha avviato una causa contro l'azienda sostenendo che non protegga adeguatamente i bambini dai predatori online. Secondo Torrez, invece di garantire sicurezza, Meta “si ostina a persuadere genitori e ragazzi che le sue piattaforme siano sicure”.
Meta ha annunciato di voler ampliare le funzioni degli account Teen anche a Facebook a livello internazionale e di avviare nuove collaborazioni con scuole medie e superiori. Adam Mosseri, responsabile di Instagram, ha dichiarato che l'obiettivo è “mettere i genitori nelle condizioni di sentirsi tranquilli mentre i loro figli usano i social media”.
LE RACCOMANDAZIONI FINALIGli autori del rapporto chiedono interventi strutturali, come verifiche indipendenti periodiche sui sistemi di sicurezza, strumenti più immediati per segnalare condotte inappropriate e trasparenza sui dati riguardanti l'esperienza dei minori sulla piattaforma. Sottolineano inoltre la necessità di assicurare che i contenuti raccomandati agli adolescenti siano realmente adeguati all'età e che sia raccolta la testimonianza diretta dei ragazzi sull'impatto dei materiali sensibili a cui sono esposti.
Il giudizio degli autori rimane severo: finché non saranno introdotte misure concrete, gli strumenti attuali continueranno a rappresentare “promesse non mantenute” e Instagram resterà un ambiente insicuro per milioni di adolescenti.