Nel luglio del 2025, Anthropic firmò con il Pentagono un contratto da 200 milioni di dollari che conteneva due clausole insolite: Claude non poteva essere impiegato per la sorveglianza di massa dei cittadini americani, né per sistemi d'arma completamente autonomi. Otto mesi dopo, quelle due frasi hanno innescato la crisi più acuta mai registrata tra un'azienda tecnologica privata e il governo degli Stati Uniti nel campo dell'intelligenza artificiale.
Una rottura annunciata
La vicenda che ha opposto Anthropic al Dipartimento della Difesa americano — ribattezzato "Dipartimento della Guerra" con decreto esecutivo firmato da Trump nel settembre 2025 — non è nata improvvisamente. Ha radici in una tensione strutturale che l'industria dell'AI ha a lungo eluso: chi detiene il controllo su come un modello viene usato, una volta che è stato venduto o licenziato a un'istituzione militare?
La risposta che Anthropic ha cercato di imporre attraverso il contratto è inusuale nel panorama tecnologico: il costruttore dello strumento si riserva il diritto di delimitare l'uso dello strumento stesso, anche nei confronti del cliente più potente del mondo. Questo principio — che in altri settori industriali sarebbe considerato normale prassi di responsabilità del produttore — diventa, nel contesto militare, un atto di insubordinazione politica.
Il contratto originale rendeva Claude il primo grande modello di intelligenza artificiale dispiegato sulle reti classificate del Pentagono. La partnership avveniva attraverso Palantir e Amazon Web Services Top Secret Cloud, con Claude integrato nel sistema Maven Smart System — il programma AI di combattimento centrale del Dipartimento della Difesa.
La crisi è esplosa quando il Pentagono ha richiesto che Anthropic rimuovesse dal contratto la clausola riguardante "l'analisi di dati acquisiti in volume", una formulazione tecnica che per Amodei costituiva la principale protezione contro un utilizzo di Claude per la sorveglianza di massa. Il rifiuto dell'azienda ha innescato una reazione a catena che, nel giro di una settimana, ha prodotto un ultimatum, una designazione come rischio per la sicurezza nazionale e un decreto presidenziale.
Anthropic firma un contratto da 200 milioni di dollari con il Dipartimento della Difesa. Claude diventa il primo modello AI dispiegato su reti classificate militari. Il contratto include esplicitamente due restrizioni: nessun impiego per sorveglianza di massa dei cittadini americani, nessun impiego per armi completamente autonome.
Il Segretario Hegseth emette la propria strategia AI per il Dipartimento della Guerra, imponendo che tutti i contratti AI del Pentagono adottino la formula "any lawful use" — uso per qualsiasi scopo lecito — senza restrizioni aggiuntive da parte dei fornitori.
Il Pentagono pone un ultimatum ad Anthropic: rimuovere le clausole restrittive entro venerdì 28 febbraio oppure perdere il contratto. Hegseth minaccia di invocare il Defense Production Act per costringere l'azienda ad adeguarsi.
Anthropic rifiuta. Trump ordina a tutte le agenzie federali di cessare immediatamente l'uso delle tecnologie Anthropic. Il Segretario Hegseth designa Anthropic "rischio per la supply chain nazionale" — una designazione tradizionalmente riservata ad aziende considerate emanazioni di governi stranieri avversari. Ore dopo, OpenAI annuncia un accordo con il Pentagono che include la formula "any lawful use". Nella stessa giornata iniziano i bombardamenti statunitensi e israeliani sull'Iran.
Claude viene formalmente notificato come rischio per la supply chain. Anthropic annuncia che contesterà la designazione in tribunale. I ricavi annualizzati dell'azienda passano da 14 a 19 miliardi di dollari. Claude raggiunge il primo posto nell'App Store americano. I negoziati con il Pentagono riprendono in via informale.
Il paradosso logico al centro della disputa
Prima di analizzare le implicazioni strutturali di questa vicenda, vale la pena soffermarsi su un elemento che i commentatori mainstream hanno trattato con una certa superficialità: la contraddizione interna alla posizione del governo americano è talmente acuta da sembrare costruita appositamente per paralizzare qualsiasi tentativo di risposta legale.
Da un lato, il Pentagono ha sostenuto che Claude fosse così essenziale alle operazioni militari da non potersene privare — tanto da evocare il Defense Production Act, una legge del 1950 nata per garantire la disponibilità di risorse critiche in tempo di guerra. Dall'altro, ha simultaneamente dichiarato Claude un rischio per la sicurezza nazionale così grave da richiedere la sua esclusione dall'intero ecosistema federale, inclusi tutti i contractor privati.
Il governo ha sostenuto contemporaneamente che Claude fosse indispensabile per le operazioni militari e che costituisse una minaccia alla sicurezza nazionale. Due posizioni che si falsificano a vicenda.
Lawfare Media, analisi giuridica — Marzo 2026Questa contraddizione non è sfuggita agli analisti giuridici. L'autorità invocata da Hegseth — la sezione 3252 del Titolo 10 del Codice degli Stati Uniti, che consente al Segretario della Difesa di designare fornitori come rischio per la supply chain — presenta problemi procedurali significativi: non prevede notifica preventiva all'azienda, non offre possibilità di risposta, e la sua estensione ai contractor commerciali non militari supera probabilmente l'ambito di applicazione che il Congresso aveva inteso autorizzare.
Come ha osservato il professor Alan Rozenshtein dell'Università del Minnesota, il governo vuole continuare a usare la tecnologia di Anthropic — e sta semplicemente usando ogni leva di pressione disponibile per ottenerla alle proprie condizioni. La designazione come rischio nazionale è, in questa lettura, uno strumento negoziale travestito da provvedimento di sicurezza.
Le due linee rosse e ciò che significano davvero
Il dibattito pubblico ha spesso ridotto il conflitto a una questione di principio astratto: Anthropic che difende i propri valori etici contro un governo che vuole fare ciò che ritiene necessario. Questa lettura, per quanto seducente, oscura la dimensione tecnica e giuridica del problema.
Prima linea rossa: la sorveglianza di massa
Il Pentagono ha sostenuto che la sorveglianza di massa dei cittadini americani sia già illegale, rendendo superflua la clausola contrattuale. Anthropic ha risposto che la distinzione non è formale ma sostanziale: una restrizione legale è modificabile attraverso il processo politico; una restrizione contrattuale rimane vincolante indipendentemente dai cambiamenti normativi. In un momento storico in cui la stessa denominazione del Dipartimento della Difesa è stata modificata con decreto esecutivo, la solidità delle garanzie legislative appare quanto meno discutibile.
La preoccupazione di Amodei non era teorica. I modelli linguistici di frontiera del 2026 sono in grado di sintetizzare enormi insiemi di dati — comunicazioni, movimenti, associazioni — e di generare pattern di sorveglianza che avrebbero richiesto anni di lavoro analitico umano appena cinque anni fa. La clausola contrattuale non era un vincolo ideologico: era un argine tecnico contro una capacità che la legge esistente non aveva ancora contemplato nella sua interezza.
Seconda linea rossa: le armi autonome
La questione delle armi completamente autonome è ancora più complessa. Amodei ha argomentato che i modelli AI attuali non sono sufficientemente affidabili per prendere decisioni letali senza supervisione umana — una posizione che non è un rifiuto di principio dell'uso militare dell'AI, ma una valutazione tecnica sul livello attuale di robustezza dei sistemi.
Ricerche recenti su modelli AI avanzati in simulazioni di scenari bellici hanno mostrato che in alcune condizioni i sistemi optano per soluzioni di escalation estrema in percentuali molto elevate. L'affidabilità dei modelli attuali in contesti di alta posta è una questione aperta nella letteratura di sicurezza AI.
Vale la pena notare una distinzione che l'informazione di massa ha quasi sistematicamente trascurato: le due linee rosse di Anthropic non hanno impedito l'uso di Claude per identificazione di bersagli, analisi dell'intelligence, simulazione di scenari di battaglia. Nel conflitto iraniano, Claude ha operato proprio in queste funzioni — come strumento di supporto decisionale con supervisione umana, non come agente autonomo. La differenza tra "AI che assiste la decisione umana" e "AI che prende autonomamente la decisione letale" è tecnicamente e giuridicamente fondamentale. È esattamente quella distinzione che le clausole contrattuali intendevano preservare.
L'Iran: il paradosso operativo
Il momento più rivelatore dell'intera vicenda non è la designazione come rischio nazionale, né il decreto presidenziale. È ciò che è accaduto nelle ore immediatamente successive.
Secondo fonti di stampa internazionale — tra cui CBS News, Times of Israel e CNBC — il 28 febbraio, mentre Trump firmava l'ordine di cessare ogni uso delle tecnologie Anthropic, le forze militari americane e israeliane avviavano operazioni militari contro obiettivi iraniani. Le stesse fonti riportano che Claude era già integrato nel sistema Maven Smart System, impiegato per sintetizzare immagini satellitari, segnali di intelligence e dati di sorveglianza, con funzioni di supporto alla generazione di liste di obiettivi e valutazioni operative. Il bando presidenziale era stato firmato. L'uso operativo continuava.
Questo non è un dettaglio di colore. È la dimostrazione che l'uso militare dell'AI — quando raggiunge un certo livello di integrazione nelle infrastrutture operative — diventa di fatto irreversibile nel breve periodo, indipendentemente dalle decisioni politiche formali. Il Pentagono ha stimato che la sostituzione delle capacità di Claude richiederebbe da tre a oltre tre mesi. Un lasso di tempo incompatibile con le esigenze operative di un conflitto attivo.
La dipendenza tecnologica non aspetta i decreti presidenziali. Quando l'AI è integrata nelle infrastrutture di comando, il bando formale e l'uso operativo coesistono senza contraddirsi.
Adytum AI — Insight LabC'è un'ironia strutturale in questa situazione che merita di essere nominata: il governo che accusa Anthropic di volersi inserire nella catena di comando militare imponendo restrizioni sull'uso di Claude è lo stesso governo che ha continuato a usare Claude durante le operazioni militari dopo averlo ufficialmente bandito. La catena di comando, a quanto pare, può tranquillamente ignorare i propri ordini quando la dipendenza operativa lo richiede.
Il problema dell'errore irreversibile
C'è una domanda che il dibattito politico e mediatico intorno alla vicenda Anthropic-Pentagono ha quasi sistematicamente eluso, preferendo concentrarsi sulla disputa contrattuale e sulle dichiarazioni dei protagonisti. La domanda è questa: cosa succede quando un sistema di intelligenza artificiale sbaglia in un contesto in cui l'errore non è correggibile?
In quasi tutti gli ambiti in cui l'AI viene impiegata oggi — dalla medicina alla finanza, dalla logistica al diritto — l'errore ha un costo, talvolta elevato, ma nella maggior parte dei casi reversibile o almeno riparabile. Un modello che classifica erroneamente una diagnosi può essere corretto da un secondo parere. Un algoritmo che sbaglia una previsione finanziaria produce perdite recuperabili. Un sistema che identifica erroneamente un bersaglio militare produce morti. Quella distinzione non è graduabile.
Il problema non è ipotetico. I modelli linguistici attuali — incluso Claude — non sono sistemi deterministici: a parità di input, possono produrre output diversi. Operano su pattern statistici estratti da enormi corpus di testo, non su regole logiche verificabili. Questo significa che la loro affidabilità in condizioni operative estreme — dati incompleti, contesti ambigui, pressione temporale — non è garantita dalla struttura stessa del sistema, ma dipende dalla qualità e dalla rappresentatività dei dati su cui sono stati addestrati. Nessun test di benchmarking in condizioni di laboratorio può replicare fedelmente le condizioni di un conflitto attivo.
Studi pubblicati tra il 2023 e il 2025 da ricercatori nell'ambito dell'AI safety — tra cui lavori prodotti da istituzioni come Stanford HAI e il Center for AI Safety — hanno documentato una tendenza preoccupante nei test su modelli avanzati in simulazioni di scenari di crisi internazionale: in determinate configurazioni, i sistemi optano per soluzioni di escalation drastica in percentuali significativamente superiori a quanto un operatore umano farebbe nelle stesse condizioni. I ricercatori attribuiscono questo fenomeno alla struttura degli obiettivi di ottimizzazione e all'assenza, nei modelli, di un'autentica comprensione delle conseguenze irreversibili delle proprie raccomandazioni.
C'è poi il problema della compressione temporale. Nelle operazioni militari moderne, la finestra temporale tra identificazione di un bersaglio e autorizzazione all'azione si misura spesso in minuti o secondi. Quando un sistema AI genera — come Claude avrebbe fatto, secondo le fonti citate, nelle operazioni di supporto sull'Iran — il tempo disponibile per una verifica umana indipendente si riduce drasticamente. La supervisione umana rimane formalmente presente nella catena di comando, ma la sua capacità di dissentire dal sistema in modo informato e tempestivo è strutturalmente compressa.
La supervisione umana non è una garanzia se il tempo per esercitarla è misurato in secondi e l'output del sistema ha già preformattato la decisione.
Adytum AI — Insight LabRimane aperta, e deliberatamente irrisolta in questa sede, la questione di accountability: quando un sistema AI contribuisce a una decisione militare che si rivela errata — un bersaglio sbagliato, vittime civili non previste, un'escalation non intenzionale — chi risponde? Il costruttore del modello, che ha venduto lo strumento con clausole contrattuali? Il contractor che lo ha integrato nella piattaforma operativa? Il comandante militare che ha autorizzato l'azione? Il Segretario della Difesa che ha definito la dottrina d'uso? La distribuzione della responsabilità in sistemi sociotecnici complessi è già problematica in contesti civili. In contesti militari, dove la riservatezza operativa rende spesso impossibile una ricostruzione pubblica dei fatti, diventa quasi ingestibile.
Non è una domanda retorica. È la domanda che i legislatori, le istituzioni internazionali e — in assenza di entrambi — le aziende tecnologiche dovranno prima o poi affrontare in modo esplicito. Il fatto che in questa vicenda l'unica risposta istituzionale concreta provenga dalle clausole contrattuali di un'azienda privata non è rassicurante. È, piuttosto, un indicatore preciso del livello di preparazione collettiva con cui stiamo entrando nell'era dell'AI militare.
Il confronto con Project Maven: similitudini e differenze decisive
Il precedente storico più citato in questo dibattito è Project Maven, il programma del Pentagono avviato nel 2018 per analizzare filmati di droni tramite computer vision. Google aveva accettato il contratto, quattromila dipendenti avevano protestato, e l'azienda aveva infine deciso di non rinnovarlo, pubblicando in seguito principi etici che includevano impegni su armi e sorveglianza.
La comparazione è utile ma rischia di nascondere una differenza cruciale. Nel 2018, Project Maven riguardava una funzione singola e relativamente delimitata: l'analisi automatizzata di immagini. I modelli linguistici di frontiera del 2026 sono sistemi generalisti. Possono essere applicati a qualsiasi compito che implichi elaborazione del linguaggio, sintesi di informazioni, generazione di testo, analisi di pattern. Il "rischio di spillover" — l'applicazione progressiva a funzioni non previste o non autorizzate — è incomparabilmente più alto.
Questa differenza qualitativa è ciò che rende la posizione di Amodei difendibile sul piano tecnico anche quando appare controversa sul piano politico. Non si tratta di stabilire se il Pentagono ha o non ha intenzione di violare le proprie politiche interne. Si tratta di riconoscere che la natura stessa degli strumenti in gioco rende la supervisione contrattuale una forma di controllo più robusta della sola fiducia nelle intenzioni istituzionali.
La governance del vuoto
La vicenda Anthropic-Pentagono espone con una chiarezza inusuale il problema centrale della governance dell'AI in contesti di sicurezza nazionale: chi stabilisce le regole, quando le regole istituzionali non sono state ancora scritte?
Nel panorama attuale, le tre fonti di vincolo potenzialmente applicabili sono il diritto internazionale dei conflitti armati — che non contempla esplicitamente i sistemi AI —, le politiche interne delle agenzie governative — modificabili con nuovi memorandum o strategie —, e i contratti con i fornitori privati — che le aziende possono negoziare e difendere in tribunale. Di queste tre fonti, solo l'ultima ha dimostrato, in questa vicenda, una certa stabilità operativa.
Il Congresso americano è rimasto in gran parte silenzioso. La comunità internazionale non dispone di uno strumento normativo vincolante sull'uso dell'AI bellica. Le organizzazioni internazionali hanno posizioni ufficiali sulle armi autonome, ma prive di meccanismi di enforcement credibili. In questo vuoto, le clausole contrattuali di un'azienda privata del valore di 380 miliardi di dollari rappresentano — paradossalmente — uno dei pochi meccanismi di controllo concreti.
Commentatori ed esperti del settore — tra cui Tara Chklovski, CEO di Technovation, in dichiarazioni riprese da The Conversation — hanno osservato che se il Dipartimento della Difesa portasse questa strategia alle sue conseguenze logiche tagliando i ponti con Anthropic, potrebbe trovarsi ad operare con fornitori significativamente meno attenti alla sicurezza dei sistemi. La competizione aggressiva nel settore AI non premia la prudenza. Chi accetta di consegnare tecnologia senza restrizioni vince il contratto. La domanda è se questo sia il risultato che un'amministrazione che si preoccupa della competizione con la Cina nel campo dell'AI dovrebbe volere.
OpenAI e il riflesso del mercato
La reazione di OpenAI alla crisi merita un'analisi separata. L'annuncio dell'accordo con il Pentagono nelle ore immediatamente successive al bando ad Anthropic è stato universalmente percepito come una mossa opportunistica — incluso, secondo quanto riportato da CNBC, dallo stesso Sam Altman, che avrebbe successivamente riconosciuto pubblicamente che la tempistica non era stata gestita bene e che l'azienda avrebbe dovuto agire con maggiore cautela.
Ma al di là della gestione comunicativa, il contratto OpenAI-Pentagono introduce un elemento analiticamente rilevante. Include la formula "any lawful purpose" che Anthropic aveva rifiutato, ma è stato successivamente emendato per escludere esplicitamente la sorveglianza domestica dei cittadini americani. Altman ha anche dichiarato pubblicamente che Anthropic non merita la designazione come rischio nazionale, e ha suggerito che il Pentagono dovrebbe offrire ad Anthropic le stesse condizioni accettate da OpenAI.
È un posizionamento ambivalente che rivela quanto sia difficile, per qualsiasi attore in questo settore, trovare un punto di equilibrio tra le esigenze commerciali militari e la propria credibilità pubblica in materia di safety. La pressione del mercato civile — testimoniata dal balzo di Claude in cima all'App Store e dall'incremento di ricavi di Anthropic — suggerisce che esiste una domanda reale di AI sviluppata con attenzione ai limiti etici. Ignorarla non è necessariamente una strategia vincente nemmeno sul piano commerciale.
Cosa rimane aperto
I negoziati tra Amodei e il Sottosegretario Emil Michael sono ripresi. La designazione come rischio per la supply chain è stata formalmente notificata, ma la sua solidità giuridica è ampiamente contestata. Il Pentagono continua a usare Claude, almeno durante il periodo di transizione di sei mesi. Il quadro è fluido.
Ciò che non è fluido sono le domande strutturali che questa vicenda ha reso impossibile continuare a ignorare.
La prima riguarda la natura del controllo: può un'azienda privata mantenere clausole di uso accettabile nei confronti di un governo sovrano che la utilizza come fornitore? La risposta giuridica è probabilmente sì, entro certi limiti. La risposta politica è chiaramente più complessa, come ha dimostrato la rapidità con cui l'amministrazione Trump ha evocato strumenti di coercizione normalmente riservati a emergenze di sicurezza nazionale.
La seconda riguarda l'affidabilità: i modelli AI del 2026 sono sufficientemente robusti e prevedibili per operare in contesti dove gli errori producono conseguenze irreversibili? La risposta onesta è che non lo sappiamo con certezza. È esattamente la domanda che le clausole contrattuali di Anthropic cercavano di mantenere aperta, invece di chiuderla con un'assunzione ottimistica di competenza.
La terza riguarda la governance: chi dovrebbe stabilire le regole dell'uso militare dell'AI, se né il diritto internazionale né il Congresso sono stati in grado di farlo? La risposta che questa vicenda suggerisce — il contratto tra un fornitore privato e un cliente governativo — è profondamente insoddisfacente dal punto di vista della legittimità democratica. Ma potrebbe essere, per ora, l'unica risposta disponibile.
Conclusione: non un elogio, ma un indicatore
Questa non è una storia a lieto fine né uno scandalo senza sfumature. È una storia di strutture normative inadeguate rispetto alla velocità dello sviluppo tecnologico, di incentivi commerciali che si scontrano con responsabilità istituzionali, di dipendenze operative che superano le decisioni politiche formali.
Anthropic ha mantenuto due linee rosse di fronte a pressioni eccezionali — la perdita di un contratto da 200 milioni di dollari, una designazione come rischio alla sicurezza nazionale, minacce di applicazione del Defense Production Act. Può trattarsi di principio, di calcolo reputazionale, di valutazione strategica a lungo termine. Probabilmente di tutte e tre le cose insieme. L'analisi non richiede di stabilire quale delle tre motivazioni prevalga.
Ciò che richiede è di riconoscere che, nella totale assenza di un quadro normativo internazionale sull'AI militare, le clausole contrattuali di un'azienda privata stanno svolgendo funzioni che dovrebbero spettare a istituzioni democratiche. Questo è il vero problema che la vicenda Anthropic-Pentagono ha portato alla luce. Non il conflitto tra una compagnia e un governo, ma il vuoto che lo ha reso necessario.
La domanda non è se Anthropic ha fatto la cosa giusta. La domanda è perché, nel 2026, la cosa giusta dipenda dalle clausole contrattuali di una startup californiana.
CBS News, CNBC, Washington Post, NPR, Lawfare Media, The Conversation, Fox News (analisi giuridica), CoinCentral, Times of Israel. Tutti i fatti riportati sono stati verificati su fonti primarie multiple e sono attribuiti alle rispettive fonti originali.
Nota editoriale
Le analisi, le interpretazioni e i giudizi contenuti in questo articolo rappresentano esclusivamente l'opinione editoriale di Adytum AI e non costituiscono affermazioni di fatto su intenzioni, responsabilità o condotte specifiche delle persone o organizzazioni citate. Adytum AI non è affiliata ad Anthropic, OpenAI, al Dipartimento della Difesa americano né ad alcuna delle parti coinvolte nella vicenda descritta.
Pubblicato su Adytum AI — Blog. Non semplificare per convincere, ma per comprendere.