- L'allarme di Gamberini: poche piattaforme, troppo potere
- Democrazia e intelligenza artificiale: un binomio da costruire
- L'IA Act europeo e i limiti di una cornice sovranazionale
- L'Italia e la legge che ancora manca
- Domande frequenti
L'allarme di Gamberini: poche piattaforme, troppo potere
Non è stato un intervento di circostanza. Simone Gamberini, presidente di Legacoop, ha scelto un evento a Genova per mettere sul tavolo una questione che troppo spesso resta confinata nei dibattiti tra addetti ai lavori: il mercato dell'intelligenza artificiale, così com'è strutturato oggi, rappresenta un problema democratico. Un'affermazione netta, che merita di essere soppesata.
Il ragionamento di Gamberini parte da un dato di fatto difficilmente contestabile. Il settore dell'IA è dominato da un pugno di colossi tecnologici — prevalentemente statunitensi e cinesi — che detengono la capacità computazionale, i dati e i capitali necessari per sviluppare i modelli più avanzati. Senza un intervento normativo chiaro, ha avvertito il presidente di Legacoop, «ci troveremo sotto il controllo di poche grandi piattaforme». Non un rischio futuro e ipotetico, ma una traiettoria già in atto.
È un tema che incrocia le preoccupazioni espresse a più riprese anche dalla comunità accademica e da numerose organizzazioni della società civile: la concentrazione del potere tecnologico nelle mani di un numero ristretto di attori privati rischia di alterare equilibri che vanno ben oltre il perimetro economico.
Democrazia e intelligenza artificiale: un binomio da costruire
La parola chiave dell'intervento genovese è stata una sola: democrazia. Gamberini ha insistito sulla necessità di sviluppare «anticorpi» capaci di guidare l'intelligenza artificiale all'interno di un processo democratico, sottraendola alla logica esclusiva del profitto e della corsa tecnologica senza vincoli.
Il rischio di manipolazione è l'aspetto che più preoccupa. Algoritmi di raccomandazione che orientano opinioni, deepfake sempre più sofisticati, sistemi di profilazione capaci di influenzare comportamenti elettorali e scelte di consumo: il catalogo delle minacce è lungo e in continuo aggiornamento. Il punto sollevato dal presidente di Legacoop non riguarda una generica diffidenza verso la tecnologia, ma la domanda — politica nel senso più alto del termine — su chi stabilisca le regole del gioco e nell'interesse di chi.
Si tratta, stando a quanto emerge dalle sue parole, di una sfida che non può essere delegata al solo mercato. E nemmeno alla buona volontà delle aziende, per quanto alcune di esse abbiano sottoscritto codici etici e principi di autoregolamentazione. La storia insegna che l'autoregolamentazione, in assenza di un quadro cogente, tende a produrre risultati modesti.
L'IA Act europeo e i limiti di una cornice sovranazionale
Gamberini ha riconosciuto nell'IA Act europeo — il regolamento approvato dal Parlamento e dal Consiglio dell'Unione Europea — un passo avanti significativo. Il provvedimento, primo al mondo nel suo genere, classifica i sistemi di intelligenza artificiale in base al livello di rischio e introduce obblighi proporzionati per sviluppatori e utilizzatori, con divieti espliciti per le applicazioni ritenute incompatibili con i valori fondamentali dell'Unione.
Eppure, come sottolineato dallo stesso Gamberini, la cornice europea da sola non basta. L'AI Act fissa principi generali e stabilisce un'architettura di governance, ma la sua effettiva applicazione dipende in larga misura dalla capacità dei singoli Stati membri di recepirlo, integrarlo e farlo rispettare. Le autorità nazionali di vigilanza, le risorse dedicate ai controlli, la formazione dei funzionari pubblici: sono tutti tasselli che ogni Paese deve costruire in proprio.
C'è poi un aspetto che il regolamento europeo, per sua natura, non può affrontare fino in fondo: le specificità dei singoli tessuti economici e sociali nazionali. L'impatto dell'IA sul sistema cooperativo italiano, ad esempio, pone questioni diverse rispetto a quelle che emergono nel contesto industriale tedesco o nel settore finanziario francese.
L'Italia e la legge che ancora manca
È su questo punto che l'appello di Gamberini si fa più urgente. L'Italia, ha sollecitato, deve predisporre una legge nazionale per tutelare i cittadini dai rischi di manipolazione legati all'intelligenza artificiale. Un provvedimento che non si limiti a trasporre il regolamento europeo, ma che affronti le vulnerabilità specifiche del contesto italiano: il digital divide ancora marcato tra Nord e Sud, il ritardo nella digitalizzazione della pubblica amministrazione, la scarsa alfabetizzazione digitale di ampie fasce della popolazione.
Vale la pena ricordare che il governo italiano ha avviato, negli ultimi anni, diversi percorsi in materia. Il Programma Strategico per l'Intelligenza Artificiale 2024-2026, elaborato dall'Agenzia per l'Italia Digitale in collaborazione con il Ministero dell'Università e della Ricerca, traccia linee di indirizzo su ricerca, innovazione e competenze. Ma un quadro legislativo organico, che definisca diritti, doveri e sanzioni in modo chiaro, resta ancora un cantiere aperto.
La sollecitazione del presidente di Legacoop si inserisce in un dibattito che attraversa trasversalmente il mondo politico, sindacale e imprenditoriale. La questione non è se regolamentare, ma come farlo senza soffocare l'innovazione e, al tempo stesso, senza lasciare i cittadini esposti a rischi che ancora faticano a percepire nella loro reale portata.
Genova, città che ha una lunga tradizione di riflessione sul rapporto tra tecnologia e lavoro, si conferma un palcoscenico appropriato per lanciare questo tipo di allarme. Resta da capire se il messaggio arriverà con la stessa forza a Roma, dove le priorità legislative sembrano spesso dettate da urgenze più immediate.
Domande frequenti
Cosa ha detto Gamberini sull'intelligenza artificiale a Genova?
Simone Gamberini, presidente di Legacoop, ha lanciato un allarme sul mercato dell'intelligenza artificiale definendolo un problema democratico. Ha chiesto regole chiare per evitare che il controllo dell'IA resti nelle mani di poche grandi piattaforme e ha sollecitato l'Italia a dotarsi di una legge nazionale per tutelare i cittadini dai rischi di manipolazione.
Cos'è l'IA Act europeo e perché non basta secondo Gamberini?
L'IA Act è il regolamento dell'Unione Europea che classifica i sistemi di intelligenza artificiale in base al rischio e impone obblighi a sviluppatori e utilizzatori. Gamberini lo considera un passo avanti importante, ma ritiene che l'Italia debba integrarlo con una legislazione nazionale capace di affrontare le specificità del contesto italiano.
Quali sono i principali rischi di manipolazione legati all'intelligenza artificiale?
Tra i rischi più rilevanti figurano la diffusione di deepfake, la profilazione invasiva dei cittadini, l'orientamento algoritmico delle opinioni pubbliche e l'influenza sui processi elettorali. Gamberini ha insistito sulla necessità di sviluppare anticorpi democratici per contrastare queste minacce.
L'Italia ha già una legge sull'intelligenza artificiale?
Ad oggi l'Italia non dispone di una legge organica sull'intelligenza artificiale. Esistono documenti strategici come il Programma Strategico per l'Intelligenza Artificiale 2024-2026, ma un quadro normativo che definisca in modo compiuto diritti, obblighi e sanzioni è ancora in fase di elaborazione.