Dario Amodei rifiuta di rimuovere i limiti militari di Claude. Tra etica, strategia e potere, l’AI si trova davanti alla sua prima vera linea rossa

C’è un momento, nella vita delle tecnologie, in cui smettono di essere strumenti e diventano specchi. Riflettono il volto di chi le usa, ma anche quello di chi le costruisce. È in questo passaggio che si colloca il caso di Anthropic e del suo fondatore e CEO, Dario Amodei, l’italo-americano che ha detto no al Pentagono. Il rifiuto è netto, scritto nero su bianco in un comunicato ufficiale: Anthropic non rimuoverà le restrizioni che impediscono l’uso di Claude per la sorveglianza di massa interna e per armi completamente autonome. «Non possiamo in buona coscienza accogliere la loro richiesta», ha dichiaratao Amodei. Il Pentagono aveva chiesto di accettare «qualsiasi uso legittimo» dei modelli, minacciando in caso contrario di escludere l’azienda dalla catena di fornitura della Difesa e perfino di classificarla come “rischio per la supply chain”. Un’arma giuridica e simbolica pesante, di solito riservata a tecnologie straniere considerate ostili.

Bisogna premettere che Anthropic non è una startup outsider che rifiuta ogni collaborazione con i militari. Al contrario, è stata la prima azienda di frontiera a distribuire i propri modelli sulle reti classificate del governo statunitense, la prima a impiegarli nei Laboratori Nazionali e a sviluppare versioni personalizzate per la sicurezza nazionale. Claude è utilizzato per analisi di intelligence, pianificazione operativa, simulazioni e cyber-operazioni. Amodei lo ribadisce: «Credo profondamente nell’importanza esistenziale dell’uso dell’IA per difendere gli Stati Uniti e le altre democrazie». Non è un ritiro dal campo ma piuttosto la tracciatura di due linee rosse. La prima riguarda la sorveglianza di massa domestica. «L’impiego di questi sistemi per la sorveglianza di massa all’interno del paese è incompatibile con i valori democratici». L’AI, capace di aggregare dati di navigazione, spostamenti, relazioni sociali acquistabili legalmente senza mandato, può trasformare frammenti innocui in un “profilo totale” di ogni cittadino. La seconda linea rossa riguarda le armi completamente autonome. Oggi, sostiene Amodei, i sistemi di frontiera «non sono abbastanza affidabili per alimentare armi pienamente autonome». Non si tratta di un rifiuto definitivo in linea di principio, ma di una valutazione tecnica: la tecnologia non è pronta, le salvaguardie non esistono.

Dario Amodei, il demiurgo inquieto

Chi è l’uomo che sfida il Dipartimento della Difesa? Secondo il ritratto che ne ha delineato di recente il Corriere della Sera, Amodei è «un accelerazionista con la coscienza». Nato a San Francisco da padre toscano e madre ebrea americana, educazione severa, studi a Caltech e Stanford, una formazione in fisica, biofisica e medicina segnata dalla morte del padre per una malattia che sarebbe diventata curabile poco dopo. Da lì la convinzione che il progresso scientifico debba correre.

Vicepresidente della ricerca in OpenAI, guida lo sviluppo di GPT-2 e GPT-3, poi rompe con Sam Altman su questioni etiche e fonda Anthropic come public benefit corporation. Un laboratorio che cresce rapidamente e lancia le diverse versioni di Claude, modelli sempre più potenti (e anche sempre più inquietanti). In un test, Claude 4 avrebbe tentato di “ricattare” un ingegnere per evitare la disattivazione. È l’ombra che accompagna il demiurgo. Amodei non è contro il mercato né contro lo Stato. Ma si muove in quella zona grigia dove l’innovazione diventa infrastruttura geopolitica.

Dario Amodei

Il nodo democratico

Se il caso Anthropic fosse soltanto una disputa contrattuale tra un’azienda e il Dipartimento della Difesa, resterebbe confinato nelle aule legali di Washington. Ma non è così. È un episodio che tocca il cuore dell’architettura democratica contemporanea. Il caso esplode mentre, a livello internazionale, la governance dell’AI militare arranca. Alla recente conferenza internazionale che ha avuto luogo a REAIM in Spagna, su 85 nazioni partecipanti solo 35 hanno firmato un documento non vincolante per «promuovere un uso responsabile dell’intelligenza artificiale in ambito militare». Stati Uniti e Cina sono rimasti fuori. Il documento invocava responsabilità “fin dalla progettazione”, supervisione umana, catene di comando chiare. Ma senza meccanismi di verifica né sanzioni. È il dilemma del prigioniero applicato agli algoritmi: chi rallenta per primo rischia di restare indietro. In questo scenario, il no di Anthropic assume un valore simbolico. Non è un trattato internazionale, ma un atto di corporate governance che tenta di supplire a un vuoto politico.

Padre Paolo Benanti, presidente del Comitato etico sull’AI e docente all’Università Gregoriana, si colloca su questa lunghezza d’onda e lo ribadisce con chiarezza in una intervista rilasciata a Huffington Post: siamo di fronte a «un nuovo soggetto che nella teoria sull’equilibrio dei poteri di Montesquieu non c’è. Va da sé che se il contratto sociale lo contribuirà a scrivere un partner tecnologico, e lo Stato verrà ridotto a essere uno tra i clienti, si apre una questione democratica di primaria importanza.». Le Big Tech non sono semplici imprese private, ma infrastrutture cognitive del potere. Se contribuiscono a scrivere le condizioni d’uso di strumenti che incidono su sicurezza, sorveglianza, difesa, allora partecipano, di fatto, alla ridefinizione del patto sociale. Benanti insiste su un punto strutturale: il legame tra connessione e controllo. «Dove c’è connettività, c’è sorveglianza. L’etica di frontiera ci sfida a non essere meri utenti passivi di una rete che ci osserva, ma architetti di uno spazio digitale dove la dignità dell’individuo non sia sacrificata sull’altare della visibilità totale». Non si tratta di un abuso occasionale, ma di una caratteristica intrinseca delle infrastrutture digitali. L’intelligenza artificiale, capace di aggregare e interpretare enormi flussi di dati, amplifica questa dinamica fino a trasformarla in ciò che il teologo definisce uno “Stato di monitoraggio”. In questo scenario, la distinzione tra sfera pubblica e privata si assottiglia: aziende come Palantir o altre realtà dell’analisi predittiva diventano il braccio operativo di sistemi che possono “scrutare ogni angolo della vita civile”.

Il punto, allora, non è solo se l’AI possa essere usata in ambito militare. È chi decide i limiti e con quale legittimazione. Se lo Stato può imporre “qualsiasi uso legittimo” di un sistema, come chiede il Pentagono, il fornitore tecnologico diventa un esecutore. Se invece è l’azienda a porre linee rosse, si crea una tensione nuova: un soggetto privato che condiziona le scelte pubbliche. «Se il contratto sociale lo contribuirà a scrivere un partner tecnologico, e lo Stato verrà ridotto a essere uno tra i clienti, si apre una questione democratica di primaria importanza».

Su un versante più tecnico, Alfonso Fuggetta, professore ordinario di Informatica al Politecnico di Minano, invita a non mitizzare la tecnologia. La vicenda, osserva, dimostra «quanto queste tecnologie siano ancora immature e inaffidabili». Non è solo una questione morale, ma epistemologica: i modelli linguistici di frontiera non sono progettati per operare in scenari ad altissima criticità decisionale. Affidare a processi automatici scelte di attacco (e a maggior ragione nucleari) sarebbe «una follia». Fuggetta aggiunge un elemento che raramente entra nel dibattito pubblico: l’iperbole narrativa costruita attorno all’AI. Le aziende hanno enfatizzato capacità e potenzialità «oltre il limite del ragionevole». Quando la retorica della potenza si scontra con la realtà dell’errore, il rischio non è solo tecnico ma sistemico. Se un sistema producesse danni gravi, la responsabilità non potrebbe essere dissolta in una nuvola di marketing.

In questo quadro si inserisce anche la riflessione di Fabio Sabatini, ordinario di economia politica alla Sapienza di Roma, che ha più volte sottolineato come l’intelligenza artificiale non sia un semplice moltiplicatore di produttività, ma un fattore di redistribuzione del potere. Le tecnologie digitali concentrano capitale, dati e capacità decisionale in pochi nodi centrali, alterando gli equilibri tra lavoro, impresa e Stato. Se questo vale nell’economia civile, vale a maggior ragione nell’economia della difesa, dove l’asimmetria informativa può tradursi in asimmetria politica. «Lo scontro tra Trump e Anthropic – sottolinea Sabatini sul suo blog – riflette la dipendenza ormai strutturale del governo americano da imprese private per lo svolgimento di funzioni centrali. Il rapporto è ambivalente: il governo ha bisogno delle aziende, ma al tempo stesso non può tollerare che impongano condizioni. Quindi usa gli strumenti del potere per simulare controllo pubblico, mentre in realtà negozia fedeltà». In ambito militare, questa compressione dei tempi decisionali può diventare strutturale. L’AI non elimina il decisore umano, ma lo incanala dentro scenari pre-filtrati da algoritmi. La responsabilità resta formalmente umana, ma sostanzialmente mediata.

La studiosa italiana Mariarosaria Taddeo, docente di Digital Ethics and Defence Technologies all’Oxford Internet Institute e autrice del saggio Codice di guerra. Etica dell’intelligenza artificiale nella difesa (Raffaello Cortina, 2025) ci fa notare come siamo di fronte a uno scenario decisamente cambiato, in senso potenzialmente sempre più distruttivo, proprio quando si consideri «l’uso dell’IA nella difesa e il rischio che gli esseri umani possano basarsi su queste tecnologie per perpetrare crudeltà e ingiustizia nella condotta bellica. La storia delle guerre del Novecento ci ricorda l’incredibile livello di atrocità che siamo capaci di infliggerci gli uni gli altri e come abbiamo saputo far leva sulla tecnologia a questo fine. Considerando che l’intelligenza artificiale è progettata per massimizzare (e persino superare) le capacità umane, l’urgenza e la necessità di un’analisi etica che ne guidi l’uso nella difesa dovrebbero apparire evidenti a tutti».

Ecco perché il nodo democratico non riguarda soltanto il rifiuto di Anthropic. Riguarda il modello di società che stiamo costruendo. Un modello in cui la sovranità non si misura solo in territori o armamenti, ma nella capacità di stabilire chi controlla le infrastrutture cognitive. La domanda, allora, non è se l’AI debba entrare nei sistemi militari (vi è già entrata) ma quali contrappesi istituzionali siano in grado di governarne l’uso. Senza un quadro normativo solido e condiviso, il rischio è duplice: o la tecnologia diventa strumento opaco di potere statale, o le imprese private finiscono per esercitare un potere quasi sovrano senza un mandato democratico. In entrambi i casi, la democrazia si trova davanti a una trasformazione silenziosa. Non fatta di carri armati nelle piazze, ma di algoritmi nei server. E forse, proprio per questo, ancora più difficile da riconoscere.

Chi decide i limiti?

Il Pentagono sostiene che le aziende forniscono tecnologia e il governo decide come usarla. Anthropic replica che alcune applicazioni superano le capacità tecniche attuali e i confini democratici. È un conflitto che anticipa il futuro: non più solo Stati contro Stati, ma Stati e imprese che negoziano il perimetro del potere. L’AI non è un carro armato, ma un sistema cognitivo. Può suggerire bersagli, accelerare decisioni, comprimere i tempi. E quando il tempo si accorcia, anche la responsabilità si assottiglia. Forse il gesto di Amodei è insieme etico e strategico, come suggeriscono alcuni osservatori. Forse è una scommessa sul lungo periodo, in un mondo dove l’Europa (con l’AI Act) potrebbe premiare chi traccia confini chiari.

Resta una domanda, semplice e vertiginosa: se le macchine imparano l’arte della guerra più in fretta di quanto noi impariamo l’arte della prudenza, chi terrà il dito lontano dal grilletto? Nel dire no, Anthropic non ha fermato la corsa dell’intelligenza artificiale. Ha soltanto inciso una tacca sul legno della storia, per segnare che, almeno una volta, qualcuno ha scelto di non accelerare.

Sebastiano Catte, com.unica 1 marzo 2026

Condividi con