- Il ban di Trump contro Anthropic
- Il rifiuto di Anthropic: una scelta di principio
- Sam Altman e l'accordo con il Pentagono
- La rivolta silenziosa dentro la Silicon Valley
- AI militare e geopolitica: il quadro che emerge
- Domande frequenti
Il ban di Trump contro Anthropic
È una frattura netta, senza precedenti nei rapporti tra Washington e le grandi aziende dell'intelligenza artificiale. Il presidente Donald Trump ha ordinato a tutte le agenzie federali statunitensi di cessare immediatamente l'utilizzo della tecnologia sviluppata da Anthropic, la società fondata da Dario Amodei che sviluppa i modelli Claude. Una ritorsione politica, secondo molti osservatori, arrivata dopo che l'azienda ha rifiutato di aprire le porte dei propri strumenti AI all'apparato militare americano.
La decisione è destinata a ridisegnare gli equilibri tra il settore tecnologico e il complesso militare-industriale degli Stati Uniti. E soprattutto a porre una domanda che nessuno, fino a ieri, aveva affrontato con questa brutalità: chi decide i limiti etici dell'intelligenza artificiale militare?
Il rifiuto di Anthropic: una scelta di principio
Anthropic non è nuova a posizioni controcorrente. Nata nel 2021 da una costola di OpenAI — proprio per divergenze sulla sicurezza dell'AI — l'azienda ha costruito la propria identità attorno al concetto di AI safety, la ricerca di un'intelligenza artificiale sicura e allineata ai valori umani.
Quando il Dipartimento della Difesa ha richiesto un accesso militare esteso ai modelli Claude, la risposta è stata un no secco. Stando a quanto emerge dalle ricostruzioni, Anthropic avrebbe giudicato incompatibile con la propria acceptable use policy l'impiego dei modelli in contesti bellici o di sorveglianza militare su larga scala.
Una posizione che ha fatto infuriare la Casa Bianca. Il ban federale colpisce Anthropic su tutti i fronti: non solo il Pentagono, ma l'intero ecosistema delle agenzie governative americane — dalla CIA alla NASA, passando per il Dipartimento di Stato — dovrà rinunciare ai servizi dell'azienda. Un danno economico e reputazionale enorme, ma anche un messaggio politico inequivocabile.
Sam Altman e l'accordo con il Pentagono
Mentre Anthropic veniva messa alla porta, Sam Altman imboccava la direzione opposta. Il CEO di OpenAI ha firmato un accordo diretto con il Dipartimento della Difesa per l'utilizzo dei propri modelli di intelligenza artificiale in ambito militare. I dettagli dell'intesa non sono stati resi pubblici nella loro interezza, ma la portata strategica è evidente.
OpenAI, che fino a pochi anni fa vietava esplicitamente qualsiasi applicazione militare dei propri strumenti, ha progressivamente ammorbidito le proprie policy. Già nel gennaio 2024 aveva rimosso il divieto assoluto, aprendo a collaborazioni con enti governativi per la "sicurezza nazionale". L'accordo con il Pentagono rappresenta il punto di arrivo di questa svolta.
Per Altman si tratta di una scommessa calcolata. Da un lato, il rischio di alienarsi una parte della comunità tecnologica e dei propri dipendenti. Dall'altro, l'accesso a contratti federali miliardari e una posizione privilegiata nei rapporti con l'amministrazione Trump, che ha fatto dell'AI applicata alla difesa uno dei pilastri della propria agenda.
La tempistica, del resto, non è casuale. L'annuncio dell'accordo è arrivato quasi in contemporanea con il ban contro Anthropic, come a voler sottolineare che nella nuova Washington c'è spazio solo per chi collabora.
La rivolta silenziosa dentro la Silicon Valley
Ma la partita non si gioca solo nei palazzi del potere. Oltre 360 dipendenti di Google e OpenAI hanno firmato una lettera aperta in cui sostengono la posizione di Anthropic, chiedendo alle proprie aziende di adottare limiti chiari all'uso militare dell'intelligenza artificiale.
È un dato che pesa. Non si tratta di attivisti esterni o di accademici in cerca di visibilità, ma di ingegneri, ricercatori e product manager che lavorano quotidianamente allo sviluppo dei modelli più avanzati al mondo. Il loro messaggio è duplice: da una parte solidarietà verso Anthropic, dall'altra un avvertimento ai vertici delle proprie aziende.
La vicenda ricorda — per dinamiche e tensioni interne — le proteste del 2018 contro il Progetto Maven, quando migliaia di dipendenti Google si opposero alla collaborazione con il Pentagono per lo sviluppo di sistemi di riconoscimento visivo basati su droni. Allora Google fece un passo indietro. Oggi il clima è diverso. L'amministrazione Trump ha reso chiaro che la neutralità non è più un'opzione.
C'è poi un elemento che non sfugge agli osservatori più attenti: tra i firmatari figurano anche dipendenti di OpenAI, la stessa azienda il cui CEO ha appena siglato l'accordo con il Dipartimento della Difesa. Una spaccatura interna che potrebbe avere conseguenze significative nei prossimi mesi.
AI militare e geopolitica: il quadro che emerge
Dietro lo scontro tra Trump e Anthropic si muove una partita geopolitica ben più ampia. La corsa all'intelligenza artificiale applicata alla difesa è diventata il nuovo terreno di confronto tra le grandi potenze, con Stati Uniti e Cina impegnati in un'escalation tecnologica che ricorda, per intensità, la corsa agli armamenti nucleari del secolo scorso.
Washington considera l'AI un asset strategico irrinunciabile. I modelli linguistici avanzati possono essere impiegati per l'analisi di intelligence, la pianificazione logistica, la simulazione di scenari bellici, la cyberdifesa. Rinunciarvi, nell'ottica dell'amministrazione, equivale a cedere terreno a Pechino.
Anthropic, dal canto suo, non è sola nella sua resistenza. Ma rischia di diventare un caso esemplare: il prezzo che si paga quando i principi etici collidono con la ragion di Stato.
Per l'Europa — e per l'Italia in particolare, dove il dibattito sull'intelligenza artificiale si intreccia con le politiche di difesa comune e con l'AI Act appena entrato in vigore — la vicenda americana rappresenta un precedente da osservare con estrema attenzione. Le scelte che si compiono oggi a Washington finiranno inevitabilmente per influenzare il quadro normativo e strategico anche da questa parte dell'Atlantico.
La questione, insomma, resta aperta. E la risposta non sarà soltanto tecnologica.
Domande frequenti
Perché Trump ha bandito Anthropic dalle agenzie federali?
La decisione è arrivata dopo che Anthropic ha rifiutato di concedere un accesso militare esteso ai propri modelli di intelligenza artificiale Claude. L'amministrazione Trump ha interpretato il rifiuto come un'opposizione alla sicurezza nazionale e ha ordinato a tutte le agenzie federali di interrompere l'utilizzo della tecnologia dell'azienda.
Cosa prevede l'accordo tra OpenAI e il Pentagono?
Sam Altman ha firmato un accordo con il Dipartimento della Difesa per l'impiego dei modelli OpenAI in ambito militare. I dettagli specifici non sono stati interamente divulgati, ma l'intesa segna un cambio di rotta netto rispetto alle policy originarie dell'azienda, che fino al 2024 vietavano esplicitamente le applicazioni militari.
Quanti dipendenti hanno sostenuto la posizione di Anthropic?
Oltre 360 dipendenti di Google e OpenAI hanno sottoscritto una lettera aperta a sostegno della decisione di Anthropic, chiedendo limiti chiari all'uso militare dell'intelligenza artificiale.
Quali sono le implicazioni per l'Europa?
La vicenda americana pone interrogativi rilevanti anche per l'Unione Europea, dove l'AI Act è entrato in vigore con l'obiettivo di regolamentare l'uso dell'intelligenza artificiale. Le scelte di Washington in materia di AI militare potrebbero influenzare il dibattito europeo sulle applicazioni della tecnologia nel settore della difesa.