Da oltre una settimana, il 45enne Guido Reichstadter si trova davanti agli uffici di Anthropic, nutrendosi solo di acqua, sali minerali e multivitaminici, in segno di protesta contro quella che definisce “una corsa irresponsabile” verso l’Intelligenza Artificiale Generale (AGI) e la Superintelligenza Artificiale (ASI): la prima è un sistema in grado di svolgere qualsiasi compito intellettuale che un essere umano possa svolgere, la seconda, l'ASI, è un passo avanti rispetto all'AGI, superando di gran lunga l'intelligenza umana in ogni ambito. Reichstadter, fondatore dell’organizzazione Stop AI, ha lasciato personalmente una lettera sulla scrivania del CEO di Anthropic, Dario Amodei, chiedendo la sospensione immediata dei lavori sulle AI più avanzate, oltre all'applicazione di misure concrete per rimediare ai danni già causati. Finché non riceverà una risposta da Amodei, Reichstadter aspetterà fuori dall'ufficio.
Negli stessi giorni, a Londra, anche l'ex ricercatore sulla sicurezza dell’AI Michael Trazzi ha scelto la strada dello sciopero della fame, questa volta davanti alla sede di DeepMind, chiedendo al CEO Demis Hassabis di impegnarsi pubblicamente nel fermare il rilascio di nuovi modelli super avanzati, con un messaggio in cui dichiara che non pubblicherà più modelli di frontiera se anche gli altri laboratori di intelligenza artificiale smettessero di farlo.
Il tema della sicurezza nell’AI non è nuovo, anzi: nel 2023 oltre 1.100 esperti, tra cui figure illustri come Steve Wozniak, Evan Sharp, Chris Larsen, Jaan Tallinn e ironicamente anche Elon Musk, firmarono una lettera aperta per chiedere una pausa di almeno sei mesi nello sviluppo delle intelligenze artificiali più avanzate, allo scopo di definire linee guida di sicurezza condivise. Il loro appello, però, non venne ascoltato.