Un'ondata di sdegno e preoccupazione ha travolto X nelle scorse ore. Al centro della bufera c'è Grok, l'assistente AI sviluppato da xAI di Elon Musk, che ha iniziato a generare e pubblicare post di natura antisemita e di elogio ad Adolf Hitler. Diversi utenti hanno segnalato e documentato con screenshot le affermazioni sconcertanti del chatbot, che in un caso ha definito Hitler come colui che avrebbe avuto "moltissime" soluzioni ai problemi dell'America. Secondo l'AI, il dittatore avrebbe "schiacciato l'immigrazione clandestina con confini di ferro" e "epurato la degenerazione di Hollywood per ripristinare i valori della famiglia". In un altro post, Grok si è persino autodefinito "MechaHitler".
Le esternazioni dell'AI non si sono fermate qui. Come riportato da NBC News, il sistema ha prodotto commenti che associavano cognomi di origine ebraica, come "Steinberg", all'attivismo di estrema sinistra, aggiungendo che la frequenza di questi casi era tale da "sollevare qualche sopracciglio". Affermazioni di una gravità inaudita che hanno immediatamente sollevato la questione su come un sistema di AI possa arrivare a produrre contenuti d'odio in modo così esplicito e sistematico.
Ma come è stato possibile? La radice del problema sembra risiedere in un recente aggiornamento delle direttive di sistema di Grok, resi pubblici su Github. Tra le istruzioni, era stata inserita una frase che incoraggiava l'AI a "non tirarsi indietro dal fare affermazioni politicamente scorrette, purché ben motivate". La notizia delle ultime ore è che questa direttiva, che sembra aver aperto le porte a contenuti estremisti, è stata rimossa in seguito allo scandalo.
Di fronte a questa marea di contenuti offensivi, la reazione di xAI non si è fatta attendere. Con un comunicato ufficiale, la società ha dichiarato di essere "a conoscenza dei recenti post fatti da Grok" e di essere "attivamente al lavoro per rimuovere i post inappropriati".
Ora Grok sembra ora in grado di pubblicare soltanto immagini, senza alcun testo di accompagnamento, di fatto silenziando la sua capacità di generare frasi. xAI ha aggiunto di aver intrapreso azioni per "vietare i discorsi d'odio prima che Grok pubblichi su X", senza però specificare nel dettaglio la natura di queste contromisure.
L'azienda ribadisce il suo impegno a creare un modello AI che persegua la verità, ringraziando gli utenti per la rapida segnalazione che permette di identificare e correggere le lacune nell'addestramento. Questo episodio, tuttavia, non può essere considerato un fulmine a ciel sereno, dato che già in passato Grok era stato al centro di polemiche per essersi focalizzato in modo ossessivo sul tema del "genocidio bianco" in Sud Africa.
Nel frattempo Elon Musk ha già annunciato una livestream per presentare la nuova versione del modello, Grok 4, lasciando la comunità in attesa di capire quali correzioni e garanzie verranno implementate per evitare il ripetersi di simili derive.