Nuove regole per Claude: stop ad armi e malware, più libertà sulla politica

https://www.hdblog.it/tecnologia/articoli/n628468/anthropic-claude-nuove-regole/

HDblog.it Aug 16, 2025 · 1 min read
Nuove regole per Claude: stop ad armi e malware, più libertà sulla politica
Share this

Anthropic ha rivisto le regole d’uso di Claude, il suo chatbot AI, introducendo una stretta più chiara e mirata. Nelle nuove policy, l’azienda americana ha specificato il divieto assoluto di utilizzare il modello per sviluppare armi biologiche, chimiche, radiologiche o nucleari (CBRN), oltre a ordigni esplosivi ad alto potenziale. Una modifica che rafforza la precedente formula generica, che parlava solo di “armi o materiali pericolosi”, e che riflette le crescenti preoccupazioni per i rischi di un’AI in mani sbagliate.

La mossa arriva a pochi mesi dall’introduzione del livello di sicurezza “AI Safety Level 3”, implementato con il lancio del modello Claude Opus 4. Questa barriera aggiuntiva punta a rendere più difficile il cosiddetto jailbreaking dei modelli, ossia i tentativi di aggirare i limiti per ottenere risposte vietate, come appunto indicazioni utili allo sviluppo di armi di distruzione di massa.

Ma non si tratta solo di armi. Anthropic ha inserito nel regolamento anche un nuovo capitolo dedicato al cyberspazio, intitolato “Do Not Compromise Computer or Network Systems”. Qui si vieta esplicitamente l’uso di Claude per individuare vulnerabilità, creare malware, avviare attacchi informatici o sviluppare strumenti di denial-of-service.

Un passo necessario, visto che il modello è sempre più integrato con strumenti come Claude Code o Computer Use, in grado di interagire direttamente con sistemi e terminali degli utenti. Un potere che, se mal sfruttato, potrebbe moltiplicare le possibilità di attacchi su larga scala.

Curiosamente, accanto a queste restrizioni, Anthropic ha scelto di allentare i divieti sui contenuti politici. Se prima ogni utilizzo in contesto elettorale o di lobbying era bandito, ora il blocco riguarda soltanto le attività che possano essere “deceptive o disruptive” per i processi democratici, o legate al targeting degli elettori e delle campagne. In altre parole, Claude potrà trattare di politica, ma non potrà essere usato come strumento di manipolazione diretta.

Un’ulteriore chiarificazione riguarda poi gli scenari definiti “ad alto rischio”, ossia quelli in cui l’AI fornisce raccomandazioni a individui o clienti. Le linee guida precisano che tali regole si applicano solo quando l’utente finale è un consumatore, non nel caso di utilizzi business-to-business.