Anthropic lancia Claude Gov: AI per la difesa e l’intelligence USA

https://www.hdblog.it/tecnologia/articoli/n620956/anthopic-claude-gov-ai-militare-intelligence/

HDblog.it Jun 06, 2025 · 2 mins read
Anthropic lancia Claude Gov: AI per la difesa e l’intelligence USA
Share this

Le agenzie governative sono sempre più interessante all’intelligenza artificiale, così anche Anthropic ha fatto un passo avanti con una proposta dedicata: Claude Gov. Il nuovo servizio è progettato specificamente per le esigenze della difesa e dell’intelligence statunitense, e non a caso rappresenta una diretta alternativa a ChatGPT Gov, lanciato da OpenAI a inizio anno.

Secondo quanto riportato dall’azienda in un blog post, i modelli Claude Gov sono già in uso presso agenzie statunitensi di altissimo livello, anche se non è stato precisato da quanto tempo. Rispetto ai modelli disponibili al pubblico, questi sistemi mostrano una maggiore capacità di interazione con informazioni classificate, oltre ad avere una comprensione più sofisticata dei documenti e dei contesti rilevanti per la sicurezza nazionale. Inoltre, si distinguono per la loro competenza in lingue e dialetti strategici per l’intelligence. Va da sè che la disponibilità di questi strumenti resta strettamente limitata a enti governativi che trattano informazioni riservate.

L’approccio di Anthropic si distingue anche per una maggiore flessibilità nelle restrizioni d’uso: pur mantenendo dei limiti netti su disinformazione, progettazione di armi o operazioni informatiche dannose, l’azienda dichiara di poter adattare le proprie policy alle missioni e ai vincoli legali delle singole agenzie. Claude Gov si inserisce anche nel programma FedStart di Palantir, pensato per facilitare l’adozione di software SaaS da parte del governo federale.

L’uso dell’AI da parte delle autorità è spesso stato messo sotto accusa, soprattutto per i rischi di discriminazione e abusi nei confronti delle minoranze. Episodi legati a tecnologie di riconoscimento facciale e algoritmi predittivi impiegati dalla polizia americana hanno alimentato timori, già ampiamente sollevati dai sostenitori del movimento No Tech for Apartheid, che contesta l’uso delle tecnologie AI da parte dei militari, soprattutto in Israele.

Il documento pubblico di policy di Anthropic proibisce espressamente l’uso dei suoi sistemi per scopi offensivi, come la creazione o distribuzione di armi o materiali pericolosi. Tuttavia, un’eccezione introdotta circa undici mesi fa permette ad alcune agenzie selezionate di usufruire di deroghe contrattuali, purché inquadrate entro un uso “benefico” e sotto attenta valutazione.

L’ingresso di Claude Gov arriva in un momento in cui molte aziende del settore AI cercano di consolidare rapporti con il settore pubblico, soprattutto in vista di normative sempre più incerte. Scale AI, ad esempio, ha recentemente firmato un accordo con il Dipartimento della Difesa per sviluppare un sistema automatizzato per la pianificazione militare, e ha esteso le proprie attività anche ad altri governi, come quello del Qatar.

Sempre per restare in ambito pubblico ma non militare, OpenAI ha comunicato che oltre 90.000 dipendenti pubblici statunitensi hanno già adottato ChatGPT per compiti come traduzioni, stesura di memo e sviluppo software. Anthropic non ha rilasciato numeri specifici, ma punta chiaramente a inserirsi nella stessa fascia di mercato.

Per quanto riguarda il settore consumer, vi ricordiamo che recentemente Claude ha reso disponibili anche agli abbonati Pro i potenti strumenti Research e Integrations.