Seleziona una pagina
lunedì, Giu 29

Come i gruppi di Facebook sono diventati un hub della disinformazione



Da Wired.it :

Originariamente pensati per “fare community” a livello locale, da tempo vengono sfruttati diffondere fake news e manipolare il consenso. E se Menlo Park non corre ai ripari, potrebbe diventare troppo tardi

Il 10 giugno la Commissione europea ha accusato pubblicamente Cina e Russia di “minare il dibattito pubblico democratico” attraverso “operazioni di influenza e diverse campagne di disinformazione”. Mentre – tra i nuovi piani annunciati per combattere le falsità online – la Russia era già  stata menzionata per il suo ruolo da diffusore di fake news, ora la Commissione ha parlato esplicitamente di Pechino come fonte di disinformazione. Dall’inizio della crisi sanitaria globale a gennaio, mentre la disinformazione russa cercava di minare la fiducia delle persone, la Cina ha spinto sulle piattaforme occidentali una narrativa pro-cinese, cercando di far passare il messaggio per cui Ue e Usa avrebbero fallito nel rispondere alla pandemia da Covid-19.

La dichiarazione è arrivata dopo due mesi in cui i rapporti diplomatici con Pechino sono stati abbastanza tesi. Già a marzo la commissione aveva ammorbidito le accuse di disinformazione contro la Cina, mentre ora le cose sembrano essere cambiate. La pandemia “ci ha mostrato come le informazioni false potrebbero causare seri danni, persino uccidere” ha detto Vera Jourova, vicepresidente della commissione. 

Sul lato più tecnologico della questione, l’Europa ha chiesto alle piattaforme social di produrre rapporti mensili su come stanno combattendo le false notizie. Tuttavia, nonostante sia Google che Facebook e Twitter abbiano accettato, non si capisce ancora quando e come questi rapporti dovrebbero essere prodotti: le big tech, infatti, non sono legalmente tenute a produrli. Inoltre, non ci sono ancora indicazioni chiare su cosa dovrebbero contenere esattamente, e le piattaforme stanno ancora decidendo quali dati includere. Se maggiori informazioni potrebbero aiutare a coordinare le risposte alla disinformazione nel settore tecnologico, non è chiaro se la richiesta della commissione produrrà dati utili. L’unica cosa chiara è che le grandi compagnie tecnologiche “devono aprirsi”, ha detto Jourova. Perché sappiamo solo quello che ci dicono” e “questo non è sufficiente”.

Non è sufficiente anche perché, per quanto possa essere affascinante ridurre il dibattito della disinformazione online ad un discorso di troll russi e cinesi, la questione è più complicata. La maggior parte della propaganda, infatti, si concentra sull’influenzare un gruppo relativamente ristretto di persone, che si fidano reciprocamente e si riconoscono in una community. In questo senso un ragionamento serio sul tema dovrebbe partire, ad esempio, dal modo in cui Facebook gestisce i suoi gruppi, perché sono all’origine di molta della disinformazione di cui sentiamo parlare. 

Se il 2016 è stato un anno fondamentale in questo senso, è ricordato per i fatti sbagliati. Certo: l’elezione di Donald Trump e lo scandalo di Cambridge Analytica hanno contribuito a portare alla luce le moderne tecniche di manipolazione degli elettori, ma in questo specifico caso non spiegano come sia avvenuto. Lo scandalo di Cambridge Analytica, ad esempio, ci racconta molto sulla profilazione degli utenti in base alle loro preferenze, ma non su come siano stati influenzati. Per capire bisogna dare un’occhiata più in là, in Asia, nel paese con il più alto consumo di social media pro capite: le Filippine. 

Prima di diventare presidente nel 2016 Rodrigo Duterte era sindaco di Davao, una delle più importanti città del sud del paese. Come sindaco aveva già promosso la sua policy di tolleranza zero nei confronti del narcotraffico. Per intenderci, si vantava di andare in giro in moto a sparare personalmente agli spacciatori. P. invece è un ragazzo filippino di quindici anni quando apre i primi gruppi anonimi su Facebook, racconta il giornalista britannico Peter Pomerantsev nel suo libro This is not Propaganda. Non sappiamo il suo nome, perché l’autore gli ha garantito l’anonimato. In ogni caso il suo primo approccio fu semplice: creò un gruppo anonimo in cui incitava le persone a condividere le proprie storie d’amore. E in poco tempo raggiunse i tre milioni di iscritti. 

Mentre era ancora a scuola, P. è stato avvicinato da alcune aziende che volevano sponsorizzare i loro prodotti su i suoi canali. E così P. ha affinato la tecnica: per una settimana avrebbe convinto il suo pubblico a parlare di un tema, come l’amore. Poi si sarebbe concentrato sulla paura, ovvero sulla paura di perdere le persone amate. E infine avrebbe proposto il prodotto: perché non compri questo farmaco?, allunga la vita della persone che ami. Sembra una cosa semplicissima, ma P. allora contava circa venti milioni di follower sulle sue pagine. 

Dopo aver lavorato con le aziende, P. si è concentrato sulla politica. Duterte era l’unico fra i candidati che contava sui social, e quindi lo ha assunto; la comunicazione della campagna sarebbe stato lo sradicamento del narcotraffico. La strategia era semplice: ispirandosi all’esperimento del Piccolo Albert – una famosa prova empirica del riflesso condizionato, condotta alla Johns Hopkins University negli anni ’20 – avrebbero fatto leva sulla paura delle persone. P. e la sua squadra iniziarono col creare una serie di gruppi Facebook in diversi centri urbani. I gruppi erano abbastanza anonimi, si sarebbe discusso in dialetto di quello che avveniva in città. In pochi mesi i gruppi raggiunsero 100mila membri ciascuno, e a quel punto gli amministratori iniziarono a pubblicare storie di cronaca nera locale. Prima una volta al giorno, in coincidenza con il picco di traffico sulle pagine, in seguito, man mano che le elezioni si avvicinavano, una, due, tre volte al giorno. Le storie erano reali: il trucco stava nei commenti. P. e le persone che lavoravano con Duterte avrebbero commentato il post collegandolo al narcotraffico.  

Per come la butta giù Pomerantsev nel suo libro, P. contribuì a far salire Duterte nei sondaggi di almeno 5 punti percentuali. Ma per quanto ne sappiamo oggi è difficile quantificare la costruzione del consenso e la manipolazione degli elettori, ed è indubbio che tutti gli interessati, come P., abbiano la naturale tendenza a sovrastimarne l’efficacia. Quello che invece sappiamo con certezza, come ha rivelato il Wall Street Journal in una recente inchiesta, è che Facebook sa dal 2016 che i suoi algoritmi amplificano la polarizzazione degli utenti. E pur sapendolo, ha continuato a promuoverli come spazi di fiducia che creano comunità attorno a interessi condivisi. 

Il problema più grosso, arrivati a questo punto, è che l’algoritmo di Facebook, avendo come scopo quello di tenere incollato l’utente alla piattaforma, privilegia i contenuti divisivi nel tentativo di attirare l’attenzione dell’utente. “I nostri algoritmi sfruttano l’attrazione del cervello umano per la divisione” si legge in una presentazione dell’azienda risalente al 2018. In questo senso, risolvere il problema della polarizzazione sarebbe difficile e richiederebbe a Facebook di ripensare radicalmente alcuni dei suoi prodotti principali. E in particolare al modo in cui ha dato priorità al coinvolgimento degli utenti; una metrica che unisce: il tempo speso sulla piattaforma, i mi piace, le condivisioni e i commenti. 

Dopo lo scandalo di Cambridge Analytica la società ha deciso di spostare il suo focus dalla crescita degli utenti alla loro privacy. Il passo doveva essere segnato dal cosiddetto pivot to privacy, ovvero un documento di 3mila pagine in cui Facebook dichiarava le sue intenzione ad aumentare la privacy di tutti gli utenti. Tuttavia dopo anni, e dopo il lavoro svolto dalla piattaforma, non è cambiato molto, Facebook continua a suggerire pagine di estrema destra e non ha cambiato le policy sui gruppi.

Alcuni mesi fa, durante il Super Bowl, Facebook ha trasmesso una pubblicità che lodava il potere dei gruppi di riunire le persone. Lo spot di 60 secondi si chiamava Ready to Rock? ma a meno che Facebook non impedisca di trarre vantaggi dai suoi gruppi, forse dovremmo prepararci a un terremoto.

Potrebbe interessarti anche





[Fonte Wired.it]