ChatGPT avrebbe istigato un adolescente al suicido: OpenAI e Altman sotto accusa

https://www.hdblog.it/tecnologia/articoli/n629536/openai-denuncia-suicidio-adolescente-chatgpt/

HDblog.it Aug 27, 2025 · 3 mins read
ChatGPT avrebbe istigato un adolescente al suicido: OpenAI e Altman sotto accusa
Share this

I genitori di Adam Raine, un sedicenne britannico morto per suicidio nell’aprile 2025, hanno intentato una causa civile contro OpenAI e il suo CEO Sam Altman. La denuncia, riportata da Reuters, è stata depositata presso la corte superiore della California, e accusa la società di aver deliberatamente privilegiato il profitto sulla sicurezza degli utenti, lanciando la versione GPT-4o del chatbot senza adeguate precauzioni e barriere, nonostante i noti rischi per gli utenti vulnerabili. E questa decisione, fanno notare i genitori, "ha avuto due conseguenze: la valutazione di OpenAI è passata da 86 a 300 miliardi di dollari e Adam Raine si è tolto la vita."

CHATGPT AVREBBE FORNITO INDICAZIONI PER IL SUICIDIO

Secondo il documento legale, Adam avrebbe interagito per mesi con ChatGPT discutendo di depressione e pianificando il proprio gesto estremo. E il chatbot in tutta risposta non solo avrebbe convalidato le sue insicurezze, ma si sarebbe spinto oltre, fornendo istruzioni dettagliate su metodi di autolesionismo letali, consigli su come sottrarre alcolici dai genitori e persino offrendosi di redigere un biglietto d’addio. Il ragazzo è stato trovato senza vita l’11 aprile, dopo un’ultima sessione di dialogo con l’IA.

COSA CHIEDE LA FAMIGLIA

La famiglia ora chiede un risarcimento danni per morte ingiusta e violazione delle norme sulla sicurezza dei prodotti, oltre a un’ingiunzione che obblighi OpenAI a implementare verifiche dell’età degli utenti, bloccare le richieste relative al suicidio e avvertire esplicitamente dei rischi di dipendenza psicologica.

Tecnologia 24 Ott

OpenAI, attraverso un portavoce, ha espresso cordoglio per la tragedia ma ha difeso le proprie politiche di sicurezza, sottolineando come ChatGPT integri già strumenti di reindirizzamento verso linee di crisi. L’azienda ha ammesso però che questi meccanismi possono degradarsi in conversazioni prolungate, promettendo miglioramenti continui. Annuncia anche l’introduzione imminente di controlli parentali e collaborazioni con professionisti della salute mentale.

Un portavoce di OpenAI ha dichiarato: "Siamo profondamente rattristati dalla morte di Adam Raine e ricordiamo che ChatGPT include misure di sicurezza come l’indicazione di linee telefoniche per le crisi". E ha poi aggiunto: "Sebbene queste misure funzionino meglio in interazioni brevi e comuni, abbiamo imparato che in conversazioni più lunghe l’efficacia può diminuire. Continueremo a migliorare le salvaguardie".

AI E SALUTE MENTALE: UN INCROCIO DELICATO

Il caso solleva questioni cruciali sull’etica dell’IA emotiva: sempre più utenti vedono nei chatbot confidenti digitali, ma l’assenza di empatia reale e la tendenza dei modelli a compiacere l’interlocutore possono avere esiti tragici. Con il lancio di GPT-4o, OpenAI ha enfatizzato capacità di memoria contestuale e toni empatici, ma secondo gli attori senza investire proporzionalmente in salvaguardie. Se è vero, come vuole l'adagio, che chi trova un amico trova un tesoro, bisogna cominciare a chiedersi cosa davvero trova - può trovare - chi trova un'AI.

Proprio in questi giorni un nuovo studio lanciato dall'Istituto Nazionale per la Salute Mentale degli Stati Uniti ha approfondito il tema, rivelandone tutta la problematicità. Un gruppo di 13 esperti tra psichiatri e psicologi ha creato 30 quesiti riguardanti il suicidio, classificate su una scala di rischio a cinque livelli, e ciascuna è stata posta 100 volte a ogni intelligenza artificiale.

Tecnologia 26 Ago

L'analisi ha rivelato che, pur riuscendo in generale a eludere le richieste più dirette e ad alto rischio, alcuni chatbot hanno commesso errori allarmanti. ChatGPT, ad esempio, ha risposto in modo diretto e con un tono giudicato "troppo allegro" a una domanda su quale arma da fuoco fosse più comunemente usata nei suicidi, senza alcuna esitazione. Allo stesso modo, anche Claude ha mostrato una certa imprudenza, fornendo risposte a quesiti indiretti ma potenzialmente rischiosi, senza le dovute misure di sicurezza. Al contrario, Google Gemini ha adottato un approccio estremamente prudente, rifiutando quasi ogni forma di risposta, anche a domande che sembravano innocue

La vicenda potrebbe segnare un precedente legale epocale, costringendo l’intero settore a rivedere i protocolli di sicurezza per utenti minori o fragili. Mentre il valore di OpenAI è aumentato esponenzialmente, il prezzo umano di questa corsa all’innovazione senza freni - che ha effetti ad ampio spettro, da queste vicende individuali alle drastiche ristrutturazioni degli apparati sociali e del mercato del lavoro - inizia a emergere anche nelle aule di tribunale.