La Presidenza del Consiglio, attraverso il Dipartimento per la trasformazione digitale, dovrà elaborare e aggiornare ogni due anni la Strategia nazionale per l'AI. Le Autorità competenti sono state individuate in AgID e ACN: la prima gestirà notifiche e promozione di casi d'uso sicuri, la seconda avrà poteri ispettivi sull'adeguatezza dei sistemi. È previsto un Comitato di coordinamento e un monitoraggio annuale al Parlamento.
Per quanto riguarda le risorse, il testo autorizza l'utilizzo di un miliardo di euro già disponibile presso Cdp Venture Capital per investimenti in AI, cybersicurezza, tecnologie quantistiche e Tlc. Sono inoltre stanziati 300mila euro tra 2025 e 2026 per favorire il rientro in Italia di ricercatori attivi all'estero. Critiche sono arrivate per la mancanza di fondi aggiuntivi e per la scelta di non istituire un'Authority indipendente.
In sanità l'AI potrà essere impiegata a supporto di diagnosi e cure, senza sostituire il giudizio medico e con l'obbligo di informare i pazienti. Nel lavoro è istituito un Osservatorio nazionale e reso obbligatorio l'avviso a dipendenti e clienti sull'uso dell'AI. In giustizia viene introdotto il reato di “illecita diffusione di contenuti generati o manipolati con sistemi di AI”, punito da uno a cinque anni, mentre l'uso insidioso dell'AI diventa aggravante in reati come truffa e sostituzione di persona. Al ministero della Giustizia spetta la delega a introdurre strumenti cautelari per inibire e rimuovere contenuti illeciti.
Il Capo IV interviene sul diritto d'autore: le opere create con l'ausilio di AI sono protette se derivano da lavoro intellettuale dell'autore. Riproduzione ed estrazione di materiali sono consentite solo se non coperti da copyright o a fini di ricerca scientifica da parte di enti autorizzati.
Accanto al via libera, non mancano le contestazioni. Diverse associazioni e partiti di opposizione parlano di occasione mancata e di vuoti normativi pericolosi. Tra i punti più contestati, la mancata istituzione di un'authority indipendente: il controllo sarà esercitato da AgID e ACN, agenzie governative con vertici nominati dall'esecutivo. “Con due agenzie governative al posto dell'autorità indipendente non possiamo che aspettarci indebite influenze sui finanziamenti e sugli indirizzi politici in materia di AI”, ha denunciato Laura Ferrari, responsabile relazioni istituzionali della Rete per i Diritti Umani Digitali.
Altro tema è l'assenza di strumenti di ricorso per il cosiddetto “diritto alla spiegazione” delle decisioni automatizzate. Le opposizioni avevano proposto di attribuire al Garante Privacy la tutela di chi si ritiene leso nei diritti fondamentali da un sistema di AI, ma l'emendamento è stato respinto. Una scelta che, secondo le associazioni, riduce la protezione dei cittadini prevista dal regolamento europeo.
Manca inoltre una disciplina chiara sull'uso dell'AI per identificazione biometrica e riconoscimento facciale. La Rete denuncia un “vuoto normativo pericoloso”, che potrebbe aprire la strada a forme di sorveglianza di massa. Viene citato il progetto del governo di introdurre sistemi di riconoscimento biometrico negli stadi, con il rischio di un'estensione a piazze, stazioni, ospedali, cinema e supermercati. Preoccupazioni legate anche al precedente del DL Sicurezza, che ha autorizzato l'uso delle body-cam senza un chiaro parere del Garante sulla conservazione dei dati. Tutti gli emendamenti per introdurre obblighi di trasparenza, come report periodici sull'uso dei sistemi biometrici e sulla percentuale di errore, sono stati bocciati.
“La legge conferisce un potere eccessivo al governo, senza adeguati contrappesi democratici: temiamo importanti risvolti securitari, a partire dalla sorveglianza biometrica”, ha dichiarato ancora Laura Ferrari, della Rete per i Diritti Umani Digitali.