Anthropic, la società dietro il modello linguistico Claude, ha deciso di rimettere in discussione l'approccio alla privacy dei suoi utenti, ponendoli davanti a un'unica e chiara scelta: cedere le proprie conversazioni per migliorare l'AI o mantenere la propria privacy. La decisione dovrà essere presa entro il 28 settembre, e segna un vero e proprio spartiacque per tutti gli utilizzatori del servizio.
Fino a ieri, il patto con gli utenti era piuttosto semplice: Anthropic non usava i dati delle conversazioni per addestrare i suoi modelli. Le interazioni venivano cancellate in automatico dopo 30 giorni, salvo eccezioni legali o violazioni delle policy. Oggi, questo approccio cambia radicalmente. La compagnia non solo vuole usare le chat e le sessioni di programmazione per lo sviluppo, ma estenderà anche il periodo di conservazione dei dati, portandolo a cinque anni per chi non si oppone.
La motivazione ufficiale, come spesso accade, è presentata in una chiave di "bene comune". Migliorare la sicurezza dei modelli, affinare le capacità di ragionamento e di analisi, rendere più intelligenti i sistemi di rilevamento dei contenuti nocivi: questi sono gli obiettivi dichiarati. In pratica, si chiede agli utenti di dare una mano per migliorare il prodotto che loro stessi usano. Ma dietro a questo slancio di altruismo, si nasconde una necessità ben più pragmatica. Le aziende che sviluppano modelli linguistici di grandi dimensioni, per evolvere, hanno bisogno di una cosa più di ogni altra: dati, e nello specifico, dati di alta qualità, provenienti da interazioni reali.
Milioni di conversazioni e sessioni di codice con Claude rappresentano una miniera d'oro, una risorsa inestimabile per affinare l'AI e rimanere competitivi rispetto a rivali del calibro di OpenAI e Google.
Le aziende si trovano a dover navigare tra le crescenti pressioni competitive e un controllo sempre più serrato sulla gestione dei dati. Un esempio lampante è il caso di OpenAI, impegnata in una battaglia legale con il New York Times e altri editori, che ha portato a un'ordinanza del tribunale che obbliga l'azienda a non cancellare le conversazioni di ChatGPT. Per proteggersi, OpenAI ha già da tempo differenziato le proprie politiche: mentre gli utenti gratuiti e a pagamento di ChatGPT sono soggetti a queste dinamiche, i clienti business godono di una protezione maggiore, una strada che anche Anthropic sta percorrendo.
Le politiche d'uso cambiano rapidamente, a volte quasi di nascosto, tra le altre notizie e aggiornamenti aziendali. Spesso le persone non si rendono conto che le regole a cui hanno acconsentito sono state modificate. L'implementazione della nuova politica di Anthropic segue uno schema già visto: i nuovi utenti scelgono la propria preferenza durante l'iscrizione, mentre per quelli già esistenti compare un pop-up che mette in evidenza un grande pulsante "Accetta", con un piccolo interruttore per il permesso di utilizzo dei dati, impostato automaticamente su "On". Un design che, di fatto, incoraggia l'utente a cliccare "Accetta" senza nemmeno leggere le nuove condizioni.
Gli esperti di privacy da tempo avvertono che la complessità del settore AI rende quasi impossibile un vero e proprio "consenso informato" da parte dell'utente.