Privacy a rischio: conversazioni AI finite sul web | Tutti i dettagli

https://www.hdblog.it/sicurezza/articoli/n628930/privacy-rischio-conversazioni-utenti-web/

HDblog.it Aug 21, 2025 · 2 mins read
Privacy a rischio: conversazioni AI finite sul web | Tutti i dettagli
Share this

La promessa implicita di riservatezza che molti associano agli assistenti virtuali non è stata rispettata da Grok, il chatbot sviluppato da xAI, la società di Elon Musk. Secondo un’inchiesta di Forbes, più di 370.000 conversazioni con l’assistente sono comparse pubblicamente sul sito ufficiale della piattaforma, da dove sono state poi indicizzate dai motori di ricerca e rese accessibili a chiunque. Non si tratta soltanto di semplici scambi di messaggi: anche documenti caricati dagli utenti, comprese foto, fogli di calcolo e altri file, sono risultati visibili sul web.

Il meccanismo che ha portato a questa esposizione sembra legato al pulsante “condividi” presente nelle chat. Una volta premuto, la conversazione viene trasformata in un URL univoco ospitato sui server di Grok. Il problema, spiegano i giornalisti, è che questi link non restano privati ma entrano automaticamente nell’indicizzazione dei motori di ricerca, trasformando un’opzione pensata per inviare uno scambio a pochi conoscenti in una pubblicazione di fatto aperta a chiunque. A peggiorare la situazione, non compare alcun avviso chiaro per l’utente: non è immediatamente specificato che la chat diventerà di dominio pubblico.

Nel testo dei Termini di servizio si legge che l’utente concede a xAI un diritto “irrevocabile e mondiale” di utilizzare, copiare e persino pubblicare i contenuti caricati. Una clausola che, alla luce degli ultimi sviluppi, mette in discussione quanto realmente consapevoli siano gli utenti delle conseguenze delle proprie azioni online.

Non è la prima volta che accadono episodi simili. All’inizio del mese, il sito 404 Media aveva segnalato come più di 130.000 chat con altri assistenti — tra cui Claude e ChatGPT — fossero consultabili su Archive.org. La ripetizione di situazioni analoghe dimostra come il problema non sia isolato a un singolo prodotto, ma riguardi in generale il livello di trasparenza con cui le aziende tecnologiche comunicano l’uso dei dati raccolti.

Secondo E.M. Lewis-Jong, direttrice della Mozilla Foundation, gli utenti dovrebbero adottare un principio semplice: non condividere con i chatbot informazioni che non vorrebbero rendere pubbliche, incluse credenziali personali o dettagli sensibili. “Il vero nodo — osserva — è che questi sistemi non sono progettati per avvisare chiaramente fino a che punto i dati possano essere raccolti o esposti. E il rischio cresce se si pensa che piattaforme simili siano accessibili anche a ragazzi di 13 anni”.

Lewis-Jong sottolinea inoltre come le aziende dovrebbero trattare l’avvertenza sul possibile uso pubblico dei dati con la stessa serietà con cui oggi avvertono l’utente che l’AI può commettere errori. Un “cartello di pericolo” digitale che chiarisca che ciò che viene scritto o caricato potrebbe non restare privato.

Al di là del tema privacy, Grok deve anche fare i conti con il proprio posizionamento sul mercato. Secondo l’analisi della società First Page Sage, la quota detenuta dal chatbot di Musk è minima: appena lo 0,6% contro il 60,4% di ChatGPT, il 14,1% di Microsoft Copilot e il 13,5% di Google Gemini. Dati che evidenziano non solo la distanza dai concorrenti, ma anche quanto un incidente di fiducia possa risultare dannoso per un servizio che già fatica ad affermarsi.