Loading...
L'algoritmo di X sposta le opinioni politiche a destra: lo studio su Nature che fa discutere
Ricerca

L'algoritmo di X sposta le opinioni politiche a destra: lo studio su Nature che fa discutere

Una ricerca condotta su quasi 5.000 utenti americani dimostra che il feed algoritmico della piattaforma di Elon Musk favorisce contenuti conservatori, con effetti sulle opinioni spesso irreversibili

Lo studio pubblicato su Nature

Che i social media influenzino il modo in cui percepiamo la realtà politica non è più una novità. Ma ora c'è una prova scientifica robusta che quantifica l'effetto — e il quadro che ne emerge è tutt'altro che rassicurante. Uno studio appena pubblicato sulla rivista Nature, tra le più autorevoli al mondo in ambito scientifico, ha analizzato il comportamento di quasi 5.000 utenti statunitensi della piattaforma X (l'ex Twitter), arrivando a una conclusione netta: l'algoritmo del social di Elon Musk favorisce sistematicamente l'esposizione a contenuti di orientamento conservatore, e questo spostamento nelle abitudini informative si traduce in un cambiamento misurabile delle opinioni politiche degli utenti.

Non si tratta di una percezione soggettiva o di un'analisi qualitativa. I ricercatori hanno lavorato con un campione ampio, in condizioni controllate, confrontando gli effetti del feed algoritmico — quello personalizzato che X propone come impostazione predefinita — con il feed cronologico, che mostra semplicemente i post in ordine temporale.

Come funziona il feed algoritmico di X

Per comprendere la portata dei risultati, vale la pena ricordare come opera la macchina dei contenuti personalizzati. Quando un utente apre X, nella stragrande maggioranza dei casi non vede i tweet più recenti delle persone che segue. Vede ciò che l'algoritmo ritiene più rilevante per lui: una selezione costruita sulla base delle sue interazioni precedenti, dei contenuti con cui si è soffermato, di quelli che ha condiviso o commentato.

Stando a quanto emerge dallo studio, il 76% dei partecipanti alla ricerca utilizzava già il feed algoritmico come impostazione predefinita, spesso senza nemmeno essere consapevole dell'alternativa cronologica. Un dato che la dice lunga sulla capacità della piattaforma di orientare le scelte informative degli utenti fin dal primo accesso.

L'algoritmo, peraltro, non si limita a selezionare: amplifica. I contenuti che generano più engagement — reazioni emotive, condivisioni, risposte polemiche — vengono premiati e riproposti a un pubblico sempre più ampio. È un meccanismo noto, ma vederlo documentato con dati sperimentali su scala così ampia aggiunge un tassello importante alla comprensione del fenomeno.

Più contenuti conservatori e attivisti: i dati

Il cuore della ricerca sta nell'analisi dei contenuti effettivamente mostrati agli utenti. I ricercatori hanno rilevato che il feed algoritmico di X tende a proporre con maggiore frequenza post di orientamento conservatore e contenuti di natura attivista, rispetto a quanto farebbe una semplice visualizzazione cronologica.

Questo non significa che la piattaforma censuri i contenuti progressisti. Significa, piuttosto, che il meccanismo di raccomandazione — progettato per massimizzare il tempo trascorso sull'app e il numero di interazioni — finisce per sovrarappresentare una specifica area dello spettro politico. Il feed algoritmico, del resto, ha dimostrato di aumentare significativamente l'interazione degli utenti con la piattaforma: più scroll, più like, più commenti. Ma a quale prezzo per la qualità del dibattito pubblico?

La questione non è solo americana. Sebbene lo studio si concentri sugli Stati Uniti, i meccanismi algoritmici di X sono sostanzialmente gli stessi ovunque, Italia compresa. E in un contesto europeo dove il Digital Services Act impone alle grandi piattaforme obblighi di trasparenza sui sistemi di raccomandazione, questi dati assumono un rilievo regolatorio diretto.

Il passaggio al feed cronologico non basta

Ed è qui che lo studio riserva forse la sua sorpresa più amara. I ricercatori hanno provato a spostare un gruppo di utenti dal feed algoritmico a quello cronologico, per verificare se il cambiamento di dieta informativa producesse un riallineamento delle opinioni politiche. Il risultato? L'effetto è stato scarso, quasi trascurabile.

In altre parole: una volta che l'algoritmo ha contribuito a modellare le convinzioni di un utente, semplicemente togliere il filtro personalizzato non riporta le cose al punto di partenza. Le opinioni si sono già sedimentate. I bias cognitivi si sono rafforzati. Le fonti di informazione preferite sono cambiate.

È un dato che dovrebbe far riflettere chiunque si occupi di politiche digitali e alfabetizzazione mediatica. Dare agli utenti la possibilità di scegliere il feed cronologico — come peraltro richiesto da diversi regolatori — potrebbe non essere sufficiente se il danno informativo è già stato fatto.

Un effetto difficile da invertire

La ricerca pubblicata su Nature parla esplicitamente di uno spostamento verso posizioni conservatrici spesso irreversibile. Il termine è forte, ma i dati lo sostengono. Una volta esposti in modo prolungato a un certo tipo di contenuti, gli utenti tendono a interiorizzare quelle narrazioni, a cercarle attivamente e a diffidare delle alternative.

Si tratta di un meccanismo che la psicologia sociale conosce bene: l'effetto di mere exposure (la semplice esposizione ripetuta aumenta la familiarità e quindi la preferenza) combinato con la filter bubble (la bolla informativa che conferma le proprie convinzioni) crea un circolo vizioso difficile da spezzare.

Per il mondo dell'istruzione e della ricerca, le implicazioni sono enormi. Se le piattaforme più utilizzate dai giovani — e X resta molto popolare tra studenti universitari e ricercatori — producono effetti sistematici e duraturi sulle opinioni politiche, la questione dell'educazione ai media digitali diventa non più rimandabile. Non bastano le linee guida: servono programmi strutturati, integrati nei curricoli scolastici e universitari.

Le implicazioni per il dibattito pubblico

Lo studio arriva in un momento in cui il rapporto tra social media e opinioni politiche è al centro del dibattito globale. Negli Stati Uniti, dove la ricerca è stata condotta, la polarizzazione politica ha raggiunto livelli senza precedenti. Ma anche in Europa — e in Italia in particolare — il tema della manipolazione algoritmica è sempre più presente nell'agenda pubblica.

Il Parlamento europeo ha già approvato norme che obbligano le piattaforme a offrire feed non basati sulla profilazione. Ma come dimostra questo studio, la trasparenza e la scelta non bastano se arrivano troppo tardi. Il problema non è solo regolatorio: è culturale, educativo, e in ultima analisi democratico.

C'è poi un aspetto che riguarda la responsabilità diretta di chi gestisce queste piattaforme. Dopo l'acquisizione di Twitter da parte di Elon Musk alla fine del 2022 e la trasformazione in X, diversi osservatori avevano segnalato un cambiamento nella politica editoriale dell'algoritmo. Lo studio su Nature offre ora una base empirica a quelle che fino a ieri erano soprattutto ipotesi.

La questione resta aperta: fino a che punto una piattaforma privata può influenzare il dibattito democratico attraverso scelte algoritmiche opache? E soprattutto, cosa si può fare quando gli effetti di quell'influenza si rivelano permanenti?

Domande frequenti

L'algoritmo di X favorisce davvero contenuti politici di parte?

Secondo lo studio pubblicato su Nature, sì. La ricerca ha dimostrato che il feed algoritmico di X propone con maggiore frequenza contenuti di orientamento conservatore e di natura attivista rispetto al feed cronologico. L'effetto non è dovuto a una censura esplicita dei contenuti progressisti, ma al modo in cui il sistema di raccomandazione premia i post che generano più interazione.

Basta passare al feed cronologico per annullare l'effetto?

No, e questo è uno dei risultati più significativi dello studio. Gli utenti spostati dal feed algoritmico a quello cronologico non hanno mostrato un cambiamento apprezzabile nelle proprie opinioni politiche. Le convinzioni formatesi durante l'esposizione al feed personalizzato tendono a persistere.

Quanti utenti sono stati coinvolti nella ricerca?

Lo studio ha coinvolto quasi 5.000 utenti negli Stati Uniti. Il 76% di questi utilizzava già il feed algoritmico come impostazione predefinita.

Questi risultati valgono anche per l'Italia?

Lo studio è stato condotto negli Stati Uniti, ma i meccanismi algoritmici di X sono sostanzialmente identici a livello globale. È ragionevole ritenere che dinamiche simili possano verificarsi anche nel contesto italiano ed europeo, sebbene con sfumature legate al diverso panorama politico e mediatico.

Cosa significa che l'effetto è "irreversibile"?

I ricercatori hanno osservato che lo spostamento verso posizioni più conservatrici, indotto dall'esposizione prolungata al feed algoritmico, tende a permanere anche dopo la rimozione del filtro personalizzato. Non si tratta di un'irreversibilità assoluta, ma di una persistenza che rende molto difficile il ritorno alle posizioni precedenti attraverso il semplice cambio di impostazione del feed.

Pubblicato il: 1 marzo 2026 alle ore 19:00

Antonello Torchia

Articolo creato da

Antonello Torchia

Direttore Responsabile di EduNews24.it

Articoli Correlati