Pentagono contro Anthropic. Non è solo una disputa contrattuale.
La rottura tra il Pentagono e Anthropic segna il primo conflitto aperto tra un governo occidentale e una big tech americana sul controllo dei limiti etici dell’intelligenza artificiale militare. E, come spesso accade quando tecnologia e potere si intrecciano, la linea di separazione tra sicurezza nazionale, ideologia e interessi economici diventa opaca.
In un articolo precedente avevamo già accennato ai primi attriti tra Washington e l’azienda guidata da Dario Amodei. Oggi lo scontro è esploso pubblicamente — e si è trasformato in un precedente che ridefinisce i rapporti tra AI e potere politico.
Pentagono contro Anthropic, il punto di rottura: le “linee rosse” di Claude
Il nodo è semplice solo in apparenza.
Il Dipartimento della Difesa ha chiesto la rimozione delle salvaguardie che limitano l’uso militare di Claude, il modello di frontiera di Anthropic. L’azienda ha rifiutato.

Nel comunicato ufficiale, Anthropic ha ribadito che: “Mass domestic surveillance. We support the use of AI for lawful foreign intelligence and counterintelligence missions. But using these systems for mass domestic surveillance is incompatible with democratic values. … Fully autonomous weapons … frontier AI systems are simply not reliable enough to power fully autonomous weapons. We will not knowingly provide a product that puts America’s warfighters and civilians at risk..”
Che dettyo in parole semplici equivale a un: “Non costruiremo né consentiremo l’uso dei nostri sistemi per la sorveglianza di massa domestica o per armi autonome letali.”
La differenza cruciale sta nella formulazione giuridica.
Anthropic chiedeva divieti assoluti, indipendenti dall’evoluzione normativa. Il Pentagono pretendeva flessibilità operativa.
Secondo quanto ricostruito Wall Street Journal, ciò che è davvero in gioco non è solo l’uso diretto in sistemi d’arma, ma la possibilità di impiegare l’AI per analizzare enormi quantità di dati commercialmente disponibili — geolocalizzazioni, pattern finanziari, tracciamenti digitali — oggi già acquistati da agenzie federali. Con modelli di frontiera, la scala e la velocità di analisi cambiano radicalmente.
Anthropic sostiene che l’AI amplifica il potere di sorveglianza oltre ciò che la legge attuale aveva previsto.
Il Pentagono ha risposto con un ultimatum formale: rimuovere le restrizioni imposte da Anthropic oppure affrontare conseguenze contrattuali e regolatorie.
Dopo il rifiuto, l’azienda è stata designata come “supply chain risk”, o più precisamente come “supply chain risk to national security”. Nel linguaggio della sicurezza federale statunitense, questa espressione indica un soggetto ritenuto potenzialmente pericoloso per l’integrità, l’affidabilità o la sicurezza delle infrastrutture governative e della difesa. La classificazione rientra nell’ambito delle procedure di Supply Chain Risk Management (SCRM), strumenti normalmente utilizzati nei confronti di fornitori stranieri considerati esposti a interferenze governative ostili.
In passato, designazioni di questo tipo sono state applicate a entità come Huawei o Kaspersky, cioè aziende non statunitensi percepite come rischio geopolitico. L’estensione di questa etichetta a una società americana di intelligenza artificiale di frontiera rappresenta quindi un precedente senza eguali.
Non si tratta semplicemente di una rescissione contrattuale. Una designazione come “supply chain risk” può comportare l’esclusione dalle forniture federali, obblighi di dismissione per altre agenzie governative e l’impossibilità, per i contractor della difesa, di utilizzare la tecnologia coinvolta nei propri sistemi. È per questo che il passaggio assume un peso simbolico e politico particolarmente rilevante: non segnala una divergenza commerciale, ma un atto di delegittimazione istituzionale.
Il paradosso iraniano: vietata, ma usata
Sulla base delle ricostruzioni pubblicate sempre da Wall Street Journal, è stato il quotidiano a riportare che, nonostante l’ordine presidenziale di interrompere l’uso di Claude, il Comando Centrale statunitense (CENTCOM) avrebbe continuato a impiegare il modello di Anthropic in operazioni legate all’offensiva contro l’Iran. Le fonti citate dal giornale parlano di utilizzo per attività di supporto all’intelligence, identificazione di obiettivi e simulazione di scenari operativi prima dell’avvio delle missioni.
La vicenda assume così un carattere paradossale: poche ore dopo l’annuncio del bando, la stessa tecnologia considerata “rischio per la supply chain” sarebbe risultata ancora operativa in un teatro militare attivo.
Al di là della dimensione politica, l’episodio mette in luce un dato strutturale. Una volta che un sistema di intelligenza artificiale di frontiera viene integrato nei processi di difesa — soprattutto attraverso partnership industriali e deployment su reti classificate — la sua rimozione non è un atto immediato. È un processo tecnico complesso che richiede tempo, migrazioni infrastrutturali, verifiche di sicurezza e continuità operativa. Secondo le ricostruzioni giornalistiche, ambienti della difesa avrebbero ammesso che una dismissione completa potrebbe richiedere mesi.
OpenAI, il compromesso e l’equilibrio politico
Nel vuoto lasciato dallo scontro tra Pentagono e Anthropic si è inserita rapidamente OpenAI.
Sam Altman ha annunciato un accordo per il deployment dei modelli dell’azienda all’interno delle reti classificate del Dipartimento della Difesa. Anche OpenAI, formalmente, vieta l’uso dei propri sistemi per la sorveglianza di massa domestica e per lo sviluppo di armi autonome letali. Tuttavia, la differenza rispetto alla posizione di Anthropic non è nei principi dichiarati, ma nella struttura giuridica delle restrizioni.
Come sottolinea un’analisi di MIT Technology Review, OpenAI ha accettato che i limiti siano ancorati alla legislazione vigente e alle policy del Dipartimento della Difesa. In altre parole, l’uso è consentito per “tutti gli scopi leciti”, con divieti che si attivano solo laddove la legge o le direttive interne già impongano un controllo umano o una restrizione.
Anthropic, invece, chiedeva divieti assoluti, incorporati nella propria governance e nella cosiddetta “Constitution” del modello, indipendentemente dall’evoluzione normativa.
Altman ha riconosciuto pubblicamente che potrebbero emergere in futuro dispute interpretative su cosa rientri o meno negli usi consentiti. Ma OpenAI ha scelto un’impostazione diversa: meno rigidità contrattuale e più controllo architetturale, con un modello distribuito principalmente via cloud API, che consente all’azienda di mantenere supervisione tecnica continua.
Il contesto politico è altrettanto rilevante. Il progetto Stargate — il maxi piano infrastrutturale AI annunciato da Donald Trump — vede OpenAI come partner chiave. In questo quadro, colpire OpenAI avrebbe significato indebolire una delle iniziative simboliche dell’amministrazione in materia di AI.
Anthropic, al contrario, si era già distinta per posizioni favorevoli a una regolamentazione più stringente dell’intelligenza artificiale. Inoltre, Dario Amodei non era presente alla cena di Trump con i principali magnati del tech durante l’insediamento presidenziale: un’assenza che, pur simbolica, segnala una distanza politica evidente.
Pentagono contro Anthropic: Virtù o posizionamento strategico?
In questi giorni, la narrazione pubblica oscilla tra due interpretazioni opposte: da un lato l’eroismo etico, dall’altro il calcolo industriale.
Rinunciare a un contratto da 200 milioni di dollari con il Dipartimento della Difesa non è una scelta neutra. Ma non è nemmeno necessariamente un suicidio economico. Per un’azienda come Anthropic, che si posiziona come sviluppatore di AI “costituzionale”, fondata su principi espliciti e incorporati nei modelli, il rifiuto può rafforzare un’identità precisa: quella di operatore ad alta compliance, affidabile nei contesti regolati, attento alla governance e alla gestione del rischio sistemico.
In un mercato globale sempre più segmentato tra giurisdizioni con approcci differenti all’AI, questo posizionamento può avere un valore strategico. In Europa, dove l’AI Act introduce obblighi stringenti su trasparenza, rischio sistemico e accountability, un’azienda che chiede limiti più restrittivi di quelli imposti dalla legge statunitense può risultare più coerente con l’impianto regolatorio. Non a caso, alcuni osservatori hanno ipotizzato — anche provocatoriamente — che l’Unione Europea potrebbe diventare un terreno più favorevole per un modello di sviluppo dell’AI fondato su vincoli espliciti e non solo su interpretazioni flessibili della normativa vigente.
Ma ridurre la vicenda a una mossa reputazionale sarebbe semplicistico.
Il punto più delicato è un altro: per la prima volta, una società americana di intelligenza artificiale è stata trattata come potenziale minaccia alla sicurezza nazionale non per violazioni, non per legami esteri, ma per aver richiesto limiti etici più severi di quelli previsti dalla legge federale.
È un passaggio che cambia l’ordine delle priorità. Non si discute più solo di cosa sia legale o illegale. Si discute di chi abbia il potere di definire i limiti operativi di una tecnologia strategica quando questi limiti superano il perimetro normativo esistente.
In questo senso, la questione non riguarda soltanto Anthropic. Riguarda l’equilibrio tra autonomia industriale, governance democratica e prerogative dello Stato in materia di sicurezza nazionale. E apre un precedente che tutte le aziende di frontiera, anche quelle oggi allineate politicamente, non possono ignorare.
Il vero nodo: chi decide i limiti dell’AI militare?
La disputa tra Pentagono e Anthropic non riguarda soltanto Claude né un singolo contratto. Tocca una questione molto più ampia: chi ha l’autorità ultima di definire le linee rosse quando l’intelligenza artificiale diventa infrastruttura militare?
Tradizionalmente, in una democrazia liberale, i limiti sono stabiliti dal legislatore. Il Parlamento definisce ciò che è consentito e ciò che non lo è, e l’esecutivo applica quelle norme. Ma nel caso dell’AI di frontiera emerge un problema evidente: la tecnologia evolve più rapidamente della produzione normativa. Le leggi spesso disciplinano categorie precedenti — intercettazioni, armi convenzionali, sistemi automatizzati — mentre i modelli di AI introducono capacità nuove, che amplificano e combinano funzioni già esistenti su una scala inedita.
In questo vuoto temporale si inserisce l’esecutivo, che in nome della sicurezza nazionale può interpretare la legge in modo estensivo e sfruttare ogni spazio consentito dal quadro normativo vigente. Dal punto di vista del Pentagono, se un utilizzo non è espressamente vietato dalla legge, rientra nella discrezionalità operativa.
Anthropic ha assunto una posizione diversa. Ha sostenuto che, proprio perché la legge non è ancora calibrata sulla potenza dei modelli di frontiera, sia necessario introdurre limiti più restrittivi, anche quando l’uso sarebbe formalmente legale. In altre parole, ha rivendicato un ruolo attivo dell’azienda nel definire vincoli etici incorporati nel modello stesso.
Qui si apre la frattura. Se un’impresa privata decide di imporre restrizioni che vanno oltre il diritto vigente, sta esercitando una forma di autoregolazione responsabile oppure sta sottraendo al processo democratico la definizione dei limiti? E, specularmente, se lo Stato pretende di rimuovere quei limiti per esigenze operative, sta difendendo la sicurezza nazionale oppure sta comprimendo l’autonomia industriale?
Il caso iraniano dimostra che il dibattito non è teorico: l’AI è già integrata nei processi di intelligence, pianificazione e simulazione militare. Il compromesso scelto da OpenAI mostra che la collaborazione tra industria e difesa può proseguire, purché i vincoli restino all’interno del perimetro della legge vigente e delle policy governative. Anthropic, invece, sostiene che quel perimetro sia insufficiente rispetto alla scala di potere dell’AI contemporanea.
È a questo punto che lo scontro smette di essere solo industriale o contrattuale. Diventa istituzionale e, in parte, filosofico. Non si discute più soltanto di tecnologia, ma della fonte dell’autorità morale e giuridica che ne determina l’uso in contesti di guerra.
E la vicenda segna di fatto l’ingresso dell’intelligenza artificiale nella sfera delle decisioni geopolitiche ad alta tensione — dove etica, business e sicurezza nazionale non sono più ambiti separati, ma parti della stessa architettura di potere.
E questa architettura, oggi, è ancora in costruzione.








