Nel giorno del grande litigio tra Donald Trump ed Elon Musk continua a tenere banco la gestione del DOGE, di cui il CEO di Tesla è stato finora a capo con lo scopo di ottimizzare le spese dello Stato. Emergono dettagli che tuttavia non fanno che confermare quanto più volte denunciato da molti, ovvero che il dipartimento altro non era (è) che una scure che colpisce senza logica.
É emerso ad esempio che alcuni funzionari chiamati a tagliare le spese superflue presso il Department of Veterans Affairs si sono rivolti ad un ingegnere informatico senza esperienza nel settore governativo, il quale ha sviluppato uno strumento basato sull'intelligenza artificiale per identificare i servizi non essenziali da eliminare. I contratti che l'AI ha trovato sono stati etichettati come "munchable", ovvero "sgranocchiabili" (in sostanza: eliminabili).
Peccato che l'AI utilizzata per questo delicato lavoro sia risultata basata su tecnologie poco costose ed obsolete, producendo di conseguenza risultati sbagliati. In tutto, con questo metodo il DOGE ha segnalato presso il Department of Veterans Affairs più di 2.000 contratti da cancellare (anzi, da sgranocchiare). Di questi ne sarebbero stati chiusi per il momento circa 600. Senza alcuna spiegazione, tra l'altro, in quanto le domande di alcuni esponenti Dem su come siano stati individuati questi contratti da concludere non hanno mai ricevuto risposta.
Tra i contratti da bloccare ce ne sono alcuni che fanno gridare vendetta: uno riguarda ad esempio la manutenzione di un dispositivo per il sequenziamento genetico per lo sviluppo di trattamenti antitumorali. Siamo certi che fosse davvero da interrompere? O l'AI ha fatto un errore grossolano? Il dubbio è lecito, visto che parte del codice è stato analizzato da esperti di AI che ne hanno constatato il malfunzionamento. Lo stesso programmatore Sahil Lavingia che ha lavorato sul codice presso il DOGE per un paio di mesi ha ammesso che il codice presenta diversi difetti.
Penso che siano stati commessi degli errori. Sono sicuro che siano stati commessi degli errori. Gli errori capitano sempre. Non consiglierei mai a nessuno di eseguire il mio codice e fare quello che dice. È come in quell'episodio di "Office" in cui Steve Carell guida verso il lago perché Google Maps dice di guidare verso il lago. Non guidare verso il lago.
Il problema è alla radice: con l'ordine esecutivo firmato a febbraio, Donald Trump ha concesso 30 giorni alle agenzie per completare la revisione dei contratti presso gli enti pubblici. Da lì si è capito che l'unico modo per rispettare i tempi era scrivere del codice con l'ausilio dell'intelligenza artificiale. Con tutti i limiti del caso, come si è potuto constatare, anche perché tagliare 80.000 contratti in pochi giorni è pressoché impossibile. Lavingia ha ammesso di aver utilizzato versioni precedenti di OpenAI e di aver sottoposto all'AI solamente le prime pagine dei contratti, senza dunque raccogliere sufficienti informazioni.
Per cercare di migliorare lo strumento, Lavingie ha ottenuto da Musk il via libera a rendere open source il codice. Il programmatore informatico è stato licenziato poco dopo.