E quindi, le Community Notes non funzionano a causa dell’ambiente politicamente connotato di X, soprattutto tra i power users, o a causa di limitazioni strutturali di questo sistema? “Pensavamo che potesse essere una soluzione efficace, ma dal momento che le note sono portate avanti da una minoranza iperattiva si innescano sempre le stesse dinamiche, che portano al rifiuto di qualunque posizione non sia condivisa all’interno di quel gruppo”, prosegue Quattrociocchi.
Dalla Echo Chamber alla Echo Platform
Questo non vale soltanto per X, ma potenzialmente per qualunque social network, soprattutto in una fase in cui le piattaforme si dividono sempre di più in base all’appartenenza politica, come dimostrato per esempio dalla fuga dei progressisti su Bluesky: “Dalla Echo Chamber si è passati a quella che ho definito Echo Platform: il momento in cui il pregiudizio di conferma (cioè la tendenza a cercare informazioni che confermano le proprie convinzioni, ignorando quelle contrarie, ndA) si espande a tutta la piattaforma, portando gli utenti a cercare social a loro politicamente affini”.
Da questo punto di vista, le Community Notes non rappresentano più uno strumento di verifica dell’informazione, ma diventano invece un altro meccanismo per massimizzare l’engagement degli utenti: “X fa intrattenimento e guadagna di più se la popolazione che lo utilizza è molto attiva”, spiega Quattrociocchi. “Il modello di business richiede di trattenere il più possibile gli utenti sulla piattaforma. Se il blocco di utenti diventa più monolitico, aumenta la coesione interna e cresce il tempo speso sulla piattaforma e quindi l’engagement”. E se quella coesione coincide anche con una direzione politica auspicata – come sembra essere proprio il caso di X – ecco che il vantaggio economico e quello ideologico finiscono per sovrapporsi.
La situazione non è destinata a migliorare, nel momento in cui dalla polarizzazione politica si passa all’epistemia prodotta dall’intelligenza artificiale: “È la fase successiva, la malattia dell’episteme (la contrapposizione di un sapere certo all’opinione del singolo, ndA) causata dalla diffusione di large language model il cui unico criterio di verifica sta nella coerenza linguistica di una macchina che è però completamente disancorata dalla realtà”.
Esiste allora un’alternativa valida ai classici metodi di fact-checking? “Un’alternativa possibile è il pre-bunking, teorizzato da Sander van der Linden dell’Università di Cambridge”, conclude Quattrociocchi. “L’idea è di rendere le persone consapevoli delle dinamiche manipolatorie che incontrano quando sono online. Invece di correggere una falsità dopo che si è diffusa, si prova a spiegare prima come funzionano le tecniche di disinformazione. È una forma di empowerment cognitivo. Le evidenze sperimentali suggeriscono che questo approccio possa funzionare meglio del debunking tradizionale. È un processo ovviamente più lungo e complesso, ma abbiamo visto che le bacchette magiche non esistono”.


