- La denuncia di Anthropic
- Che cos'è la distillazione e perché preoccupa
- Il rischio militare e la sorveglianza di massa
- La guerra fredda dell'intelligenza artificiale
- Domande frequenti
La denuncia di Anthropic
Tre aziende cinesi avrebbero creato oltre 24.000 account falsi sulla piattaforma di Claude, il chatbot sviluppato da Anthropic, per sottrarre sistematicamente informazioni al modello linguistico americano. L'accusa, formulata direttamente dalla società di San Francisco, getta nuova luce sulle modalità con cui si combatte la competizione globale nell'intelligenza artificiale — una partita che si gioca sempre meno nei laboratori e sempre più sul filo delle zone grigie tecnologiche e legali.
Stando a quanto emerge, le tre realtà concorrenti — di cui Anthropic non ha reso noti i nomi — avrebbero operato in modo coordinato, utilizzando reti di account fittizi per interrogare massivamente Claude e raccogliere le risposte generate dal modello. Non un semplice utilizzo intensivo del servizio, dunque, ma un'operazione strutturata che ha richiesto infrastrutture dedicate e un livello di organizzazione tutt'altro che improvvisato.
La vicenda si inserisce in un momento di fortissima tensione tra Stati Uniti e Cina sul fronte delle tecnologie di frontiera. Il governo americano ha già imposto pesanti restrizioni sull'export di chip avanzati verso Pechino, e le aziende cinesi di IA sono da tempo alla ricerca di strade alternative per colmare il divario tecnologico con i colossi della Silicon Valley.
Che cos'è la distillazione e perché preoccupa
Il metodo utilizzato, secondo la ricostruzione di Anthropic, è quello della cosiddetta distillazione (model distillation). Si tratta di una tecnica nota e ampiamente documentata nella letteratura scientifica: consiste nell'addestrare un modello di intelligenza artificiale più piccolo — detto studente — utilizzando le risposte prodotte da un modello più grande e sofisticato, il maestro.
In termini pratici, funziona così: si sottopone al modello maestro (in questo caso Claude) un enorme volume di domande, si raccolgono le risposte e si usa quel dataset per allenare un modello proprietario. Il risultato è un sistema che replica parte delle capacità del modello originale senza averne mai visto il codice sorgente o i dati di addestramento.
Ecco il punto critico: la distillazione in sé non è illegale. È una pratica diffusa nel mondo della ricerca e non viola direttamente brevetti o proprietà intellettuale nel senso tradizionale del termine. Tuttavia, quando viene condotta su scala industriale attraverso decine di migliaia di account falsi, il discorso cambia. Anthropic sostiene che l'operazione abbia violato i propri termini di servizio e, soprattutto, che i modelli così ottenuti possano essere stati privati delle misure di sicurezza integrate in Claude — quei guardrail progettati per impedire al chatbot di fornire informazioni pericolose o di essere utilizzato per scopi dannosi.
È proprio su questo terreno — la sicurezza dei modelli — che Anthropic ha costruito buona parte della propria identità aziendale. La società ha più volte ribadito il proprio impegno per un'IA "responsabile", come dimostrato anche dalla recente decisione di porre limiti stringenti all'uso di Claude in ambito militare, una scelta che ha fatto discutere nell'industria.
Il rischio militare e la sorveglianza di massa
L'aspetto che ha destato maggiore allarme nella denuncia di Anthropic riguarda le possibili applicazioni dei modelli distillati. L'azienda americana ha avvertito esplicitamente che questi sistemi, una volta privati dei meccanismi di sicurezza originali, potrebbero essere integrati in:
- Sistemi militari autonomi o semi-autonomi
- Piattaforme di sorveglianza di massa
- Strumenti di disinformazione automatizzata
- Infrastrutture di cyberspionaggio
La preoccupazione non è teorica. Diversi rapporti di think tank occidentali hanno documentato negli ultimi anni l'interesse delle forze armate cinesi per l'integrazione di modelli linguistici avanzati nei propri sistemi di command and control. Un modello distillato da Claude, spogliato delle restrizioni etiche, potrebbe rappresentare una scorciatoia significativa in questa direzione.
Va detto che Anthropic non ha fornito prove pubbliche che i modelli distillati siano già stati impiegati in contesti militari. Si tratta, per ora, di uno scenario che l'azienda presenta come rischio concreto e imminente, non come fatto accertato. La distinzione è rilevante.
La guerra fredda dell'intelligenza artificiale
Questa vicenda si aggiunge a un elenco ormai lungo di episodi che tratteggiano i contorni di un vero e proprio conflitto tecnologico tra le due superpotenze. Washington ha progressivamente inasprito i controlli sulle esportazioni di semiconduttori verso la Cina, colpendo in particolare Nvidia e AMD, i due principali produttori di chip per l'addestramento di modelli di IA. Pechino, dal canto suo, ha risposto accelerando lo sviluppo di chip domestici e, come suggerisce il caso Anthropic, cercando vie traverse per accedere alle tecnologie occidentali più avanzate.
Per le aziende americane di intelligenza artificiale si apre un fronte inedito. Fino a ieri, la principale preoccupazione era proteggere il codice sorgente e i parametri dei modelli. Oggi emerge che anche le semplici risposte generate da un chatbot — ciò che un utente qualsiasi può ottenere con un abbonamento — rappresentano un asset strategico da difendere.
La questione resta aperta anche sul piano regolatorio. Né gli Stati Uniti né l'Unione Europea dispongono oggi di strumenti normativi specifici per contrastare la distillazione non autorizzata su scala industriale. Il AI Act europeo, pur rappresentando il quadro più avanzato al mondo in materia di regolamentazione dell'intelligenza artificiale, non affronta direttamente questo scenario.
Anthropic, intanto, ha dichiarato di aver già chiuso gli account incriminati e di aver rafforzato i propri sistemi di rilevamento delle anomalie. Ma il messaggio implicito della denuncia pubblica è chiaro: il problema non riguarda solo una singola azienda. Riguarda l'intero ecosistema occidentale dell'IA e la sua capacità di proteggere il vantaggio tecnologico accumulato con miliardi di dollari di investimenti.
Domande frequenti
Cos'è la distillazione di un modello di intelligenza artificiale?
La distillazione è una tecnica che permette di addestrare un modello di IA più piccolo utilizzando le risposte generate da un modello più grande e potente. Il modello "studente" impara a replicare il comportamento del modello "maestro" senza accedere al suo codice sorgente. È una pratica diffusa nella ricerca, ma diventa controversa quando viene utilizzata su scala massiva per aggirare le protezioni di sicurezza del modello originale.
La distillazione è illegale?
No, la tecnica di distillazione in sé non è considerata illegale nella maggior parte delle giurisdizioni. Tuttavia, la creazione di migliaia di account falsi per condurla viola i termini di servizio delle piattaforme, e i modelli risultanti — privi delle misure di sicurezza originali — possono sollevare gravi questioni etiche e di sicurezza nazionale.
Perché Anthropic è preoccupata per gli usi militari?
Anthropic teme che i modelli distillati, una volta privati dei guardrail di sicurezza integrati in Claude, possano essere impiegati in sistemi militari autonomi, piattaforme di sorveglianza di massa o strumenti di cyberspionaggio. L'azienda ha sempre mantenuto una posizione molto restrittiva sull'uso militare dei propri modelli.
Quali aziende cinesi sono coinvolte?
Anthropic non ha reso pubblici i nomi delle tre aziende cinesi accusate di aver creato oltre 24.000 account falsi su Claude. L'azienda ha comunicato di aver chiuso gli account e rafforzato i sistemi di controllo.