Loading...
Anthropic dice no al Pentagono: "Claude non sarà un'arma senza vincoli"
Mondo

Anthropic dice no al Pentagono: "Claude non sarà un'arma senza vincoli"

Il braccio di ferro tra il colosso dell'IA e il Dipartimento della Difesa USA segna un precedente nel rapporto tra tecnologia e apparati militari. Dario Amodei non cede all'ultimatum di Pete Hegseth.

Lo scontro tra Anthropic e il Pentagono

Da Washington arriva una notizia destinata a ridefinire i rapporti di forza tra le grandi aziende tecnologiche e l'apparato militare statunitense. Anthropic, la società che sviluppa il modello di intelligenza artificiale Claude, ha respinto la richiesta del Pentagono di ottenere un accesso senza restrizioni alla propria tecnologia. Una decisione netta, che suona come un muro eretto nel bel mezzo di una corsa agli armamenti digitali.

Il Dipartimento della Difesa USA puntava a utilizzare Claude senza le misure di sicurezza che Anthropic applica sistematicamente ai propri modelli — quei guardrail progettati per impedire usi potenzialmente dannosi o incontrollati dell'intelligenza artificiale. La risposta dell'azienda è stata un rifiuto inequivocabile.

Stando a quanto emerge, non si tratta di una semplice divergenza contrattuale. È uno scontro di visione: da un lato la logica della sicurezza nazionale, che pretende strumenti senza lacci; dall'altro quella della sicurezza tecnologica, che considera quei lacci l'unico argine credibile contro scenari catastrofici.

L'ultimatum di Pete Hegseth

A rendere la vicenda ancora più esplosiva è stato l'intervento diretto del ministro della Difesa Pete Hegseth, che avrebbe imposto ad Anthropic un vero e proprio ultimatum. I dettagli della pressione esercitata non sono stati resi pubblici nella loro interezza, ma il messaggio era chiaro: o l'azienda apre le porte senza condizioni, oppure dovrà affrontare le conseguenze di una rottura con il principale cliente governativo del pianeta.

Una mossa muscolare, coerente con la linea dell'amministrazione americana che negli ultimi mesi ha accelerato sull'integrazione dell'intelligenza artificiale negli apparati di difesa e intelligence. Il Pentagono non è nuovo a questo tipo di pressioni. Già in passato aveva cercato di ottenere collaborazioni privilegiate con le Big Tech della Silicon Valley, talvolta con successo — si pensi ai contratti cloud con Amazon e Microsoft — e talvolta sbattendo contro resistenze interne, come nel celebre caso del Progetto Maven che nel 2018 costrinse Google a fare un passo indietro.

Ma l'ultimatum di Hegseth ad Anthropic rappresenta un salto di qualità. Non si chiede una collaborazione. Si chiede una resa.

La linea di Dario Amodei: sicurezza prima di tutto

Dario Amodei, cofondatore e CEO di Anthropic, ha risposto senza ambiguità. Le minacce, ha dichiarato, non cambieranno la posizione dell'azienda. Anthropic non può "in buona coscienza" cedere a richieste che implicherebbero lo smantellamento delle misure di sicurezza integrate nei propri modelli.

Va ricordato chi è Amodei e cosa rappresenta Anthropic nel panorama dell'IA. Ex vicepresidente della ricerca in OpenAI, Amodei ha fondato Anthropic nel 2021 proprio sulla premessa che lo sviluppo dell'intelligenza artificiale avanzata richieda un approccio radicalmente più cauto rispetto a quello prevalente nel settore. L'azienda si è costruita un'identità attorno al concetto di AI safety — la sicurezza dell'intelligenza artificiale come priorità non negoziabile.

Le restrizioni che il Pentagono vorrebbe eliminare non sono ornamentali. Si tratta di sistemi progettati per:

  • Impedire la generazione di contenuti pericolosi, incluse istruzioni per la creazione di armi o agenti biologici
  • Limitare gli usi in contesti ad alto rischio, come operazioni militari autonome
  • Garantire la tracciabilità delle richieste e delle risposte fornite dal modello
  • Prevenire scenari di uso duale, in cui una tecnologia civile viene riadattata per scopi offensivi senza controlli

Rimuovere queste barriere significherebbe, nella visione di Anthropic, consegnare a un apparato governativo uno strumento di intelligenza artificiale privo di qualsiasi freno interno. Un rischio che Amodei giudica inaccettabile, indipendentemente da chi lo chiede.

IA e uso militare: una frontiera sempre più calda

La vicenda Anthropic-Pentagono si inserisce in un dibattito globale che sta acquistando un'urgenza crescente. L'impiego dell'intelligenza artificiale in ambito militare non è più un'ipotesi futuristica: è una realtà operativa. Droni autonomi, sistemi di sorveglianza predittiva, analisi di intelligence assistita da modelli linguistici — il confine tra applicazione civile e utilizzo bellico dell'IA si è fatto sottilissimo.

Negli Stati Uniti, il Pentagono ha istituito da anni la CDAO (Chief Digital and Artificial Intelligence Office) proprio per coordinare l'adozione dell'IA nelle forze armate. L'obiettivo dichiarato è mantenere un vantaggio strategico sulla Cina, che a sua volta investe massicciamente nell'intelligenza artificiale applicata alla difesa.

In Europa, il dibattito ha preso una piega normativa con l'AI Act, il regolamento dell'Unione Europea che classifica gli usi dell'intelligenza artificiale per livello di rischio e impone vincoli stringenti sulle applicazioni ad alto rischio. Tuttavia, le applicazioni militari restano in larga parte escluse dal perimetro del regolamento — una lacuna che molti osservatori considerano problematica.

Per l'Italia, il tema è tutt'altro che accademico. Il nostro Paese partecipa a programmi NATO che prevedono l'integrazione di sistemi di IA e segue con attenzione le evoluzioni transatlantiche. La posizione che prevarrà a Washington — più sicurezza o più accesso? — finirà inevitabilmente per influenzare anche le scelte europee e italiane in materia di governance dell'intelligenza artificiale in ambito difesa.

La questione resta aperta, e il precedente che Anthropic sta creando potrebbe rivelarsi decisivo. Se un'azienda privata può resistere alla pressione del più potente apparato militare del mondo, il messaggio è chiaro: le regole dell'intelligenza artificiale non le scrive solo chi ha più potere, ma anche chi costruisce la tecnologia. Se invece il muro di Amodei dovesse cedere — per pressioni economiche, legali o politiche — il segnale sarebbe altrettanto eloquente, e assai più inquietante.

Domande frequenti

Perché Anthropic ha rifiutato la richiesta del Pentagono?

Anthropic ha rifiutato perché la richiesta implicava la rimozione delle misure di sicurezza integrate nel modello Claude. Secondo il CEO Dario Amodei, cedere a questa richiesta avrebbe significato consegnare un sistema di intelligenza artificiale avanzata privo di qualsiasi vincolo interno, con rischi potenzialmente gravi e non controllabili.

Cosa chiedeva esattamente il Pentagono ad Anthropic?

Il Dipartimento della Difesa chiedeva un accesso illimitato a Claude, senza le restrizioni d'uso che Anthropic applica normalmente — inclusi i filtri contro la generazione di contenuti pericolosi e i limiti sulle applicazioni in contesti militari ad alto rischio.

Chi è Pete Hegseth e che ruolo ha avuto nella vicenda?

Pete Hegseth è il ministro della Difesa degli Stati Uniti. Nella vicenda, ha imposto un ultimatum ad Anthropic, chiedendo all'azienda di accettare le condizioni del Pentagono. L'ultimatum non ha sortito l'effetto sperato.

Anthropic collabora in qualche modo con enti governativi?

Anthropic ha collaborato con agenzie governative statunitensi in passato, ma sempre mantenendo le proprie misure di sicurezza attive. Il punto di rottura con il Pentagono è stato proprio la richiesta di eliminare queste misure.

Questa vicenda può avere conseguenze in Europa e in Italia?

Sì. Il precedente creato da Anthropic si inserisce nel dibattito globale sull'uso militare dell'IA. In Europa, l'AI Act regola le applicazioni civili ma lascia scoperto il settore difesa. Le scelte americane influenzeranno inevitabilmente le politiche europee e italiane sulla governance dell'intelligenza artificiale.

Pubblicato il: 28 febbraio 2026 alle ore 19:09

Antonello Torchia

Articolo creato da

Antonello Torchia

Direttore Responsabile di EduNews24.it

Articoli Correlati