Seleziona una pagina
sabato, Gen 30

Chi decide cosa si può dire sui social network?



Da Wired.it :

Il problema non è la censura ma la mancanza di trasparenza, la scarsa concorrenza e il fatto che da anni si mettono pezze improvvisate invece di assumersi le proprie responsabilità

Inutile girarci attorno: per Facebook e Twitter, quella di bloccare l’account di Donald Trump è stata una scelta non solo necessaria, ma anche pienamente legittima. Nella cornice del Primo emendamento degli Stati Uniti – che protegge la libertà di parola – “Trump ha il diritto di sproloquiare, ma le aziende tecnologiche hanno il diritto garantito dalla Costituzione di rimuovere quei contenuti”, ha scritto sulla MIT Tech Review Jillian York della Electronic Frontier Foundation. È il governo che non può limitare la libertà di parola altrui, mentre le aziende, proprio per proteggere la loro stessa libertà di parola, hanno tutto il diritto di decidere chi può dire cosa sulle loro piattaforme.

È un po’ come se qualcuno venisse a casa vostra e si mettere a sbraitare insulti razzisti: avreste o no il diritto di sbatterlo fuori? D’altra parte, come sottolineato da più parti, ogni mese Facebook e Twitter cancellano post e sospendono account di utenti che hanno violato i termini di servizio. Si possono criticare i termini e le condizioni (soprattutto quando l’algoritmo censura opere d’arte contenenti un nudo o non sa distinguere un commento razzista da una presa in giro di un commento razzista), ma non si può negare il diritto di una piattaforma di avere delle basilari regole di condotta che portano all’espulsione se violate gravemente.

“Facebook e Twitter sono però rimasti a lungo inchiodati all’idea che contenuti postati da politici eletti meritassero più protezione di quelli dei normali individui, dando così alla libertà d’espressione dei politici più potere che a quella delle persone”, prosegue Jillian York. “Una posizione che si scontra con un fatto: i discorsi d’odio delle figure pubbliche hanno un impatto maggiore di quelli degli utenti normali”. Ed è per questo che la logica usata dalle piattaforme andrebbe semmai ribaltata: una figura pubblica dev’essere soggetta a regole di condotta ancora più severe degli utenti normali, proprio perché ha un potere maggiore.

Lo strapotere di Facebook & co.

Chi ha criticato la mossa di Facebook e Twitter ha comunque colto un punto importante. Come ha scritto Shira Ovid sul New York Times, “posso pensare che queste aziende abbiano preso la decisione corretta negli ultimi giorni, ma essere comunque a disagio al pensiero che siano nella posizione di comportarsi come se fossero una Corte Suprema, in grado di decidere per miliardi di persone quali espressioni e comportamenti siano appropriati”.

Che lasciare tutto questo potere ai colossi della Silicon Valley abbia dei problemi intrinseci lo dimostrano anche altri aspetti. Prima di tutto, Mark Zuckerberg e Jack Dorsey (Ceo rispettivamente di Facebook e Twitter) non hanno bloccato Trump finché il congresso statunitense non ha certificato la vittoria di Joe Biden. Considerato il tempismo – segnala Yaël Eisenstat, ex responsabile dell’integrità elettorale di Facebook, sulla Harvard Business Review“questa decisione sembra essere più un tentativo di farsi benvolere dalla nuova amministrazione che una virata verso la responsabilità”

A questa accusa di opportunismo si aggiunge un altro elemento: l’elenco interminabile di decisioni tardive, incomprensibili, sbagliate o semplicemente assenti. Tra gli esempi, basti pensare a come Zuckerberg abbia a lungo ignorato il fatto che le piattaforme di sua proprietà fossero il veicolo attraverso cui si sono propagati i discorsi d’odio che hanno provocato scontri interreligiosi (con decine di morti) in India, Myanmar e altrove. “I germi di questa violenza sono nostri, ma WhatsApp e Facebook sono il vento che li diffonde”, ha chiosato nel 2018 un consigliere del presidente dello Sri Lanka.

Lo stesso vale per il ban di Donald Trump: per essere efficace, e provare a evitare che i discorsi incendiari portassero alle violenze antidemocratiche a cui abbiamo assistito, il presidente degli Stati Uniti avrebbe dovuto essere fermato molto prima; probabilmente quando si è invece deciso, soprattutto su Twitter, di applicare ai suoi post delle timide etichette che ne contestavano le affermazioni (una scelta estetica che segnalava più che altro la volontà di “far vedere che si sta provando a fare qualcosa”). 

Le piattaforme non sono neutrali

Donald Trump, a differenza di quanto generalmente si pensi, non è la prima autorità politica a venire cacciata da Facebook: il generale più alto in grado del Myanmar ha subito lo stesso destino (anche in questo caso troppo tardi) per aver fomentato all’odio, mentre tutto il partito/organizzazione armata libanese di Hezbollah è messa al bando dal social network nonostante abbia dei seggi in parlamento. La sospensione di Donald Trump è stata semplicemente la prima azione di questo tipo messa in atto tra i leader del mondo occidentale. Si rischia di usare due pesi e due misure: non protestare in alcun modo per la cacciata dai social di un generale del Myanmar che incitava all’odio provocando violenze; protestare e gridare alla censura per la cacciata dai social di un politico statunitense che incitava all’odio provocando violenze. L’ipocrisia è evidente.

Come fare allora, da qui in avanti? Una possibilità è quella di lasciare le cose come stanno: i social network potranno conservare la loro discrezionalità accettando però, molto più di prima, il loro ruolo di polizia social nei confronti di utenti, contenuti e gruppi che violano i termini di servizio, indipendentemente dalla loro importanza. In poche parole, le piattaforme si assumono un ruolo molto più attivo nel sorvegliare ciò che avviene al loro interno e si adoperano per evitare che compaiano contenuti indesiderabili. 

È una strada percorribile, ma non priva di rischi. “E se gli avvocati di Facebook decidessero che ospitare materiale antifascista sia troppo rischioso alla luce degli attacchi dell’amministrazione Trump contro Antifa?”, si legge ancora sulla Tech Review. “Le piattaforme già oggi rimuovono ogni contenuto che potrebbe essere anche solo minimamente ricondotto a organizzazioni terroristiche straniere (…). Alcune importanti prove di crimini di guerra in Siria e dei vitali discorsi contro le organizzazioni terroristiche sono stati rimossi proprio per questa ragione. Allo stesso modo, le piattaforme sono finite sotto accusa per aver bloccato ogni contenuto in qualche modo connesso alle nazioni che subiscono sanzioni dagli Stati Uniti”

Lasciare tutta questa discrezionalità nelle mani delle aziende della Silicon Valley rischia di ridurre la diversità dei discorsi su Facebook, di  e di rinforzare esclusivamente una precisa narrazione del mondo, venendo meno a quella che dovrebbe essere la funzione più importante di internet: permettere all’informazione di circolare liberamente a livello globale. Il fatto che Facebook, YouTube e Twitter abbiano il diritto di decidere chi dice cosa all’interno delle loro piattaforme, insomma, non significa che questa discrezionalità sia priva di rovesci della medaglia anche molto seri.

Per fare chiarezza in questa complessa materia, forse è il caso di fare piazza pulita di alcuni equivoci. Primo fra tutti, l’idea secondo cui le piattaforme siano luoghi neutrali: “Continuare a categorizzare le aziende di social media – che curano i contenuti, i cui algoritmi decidono quali discorsi amplificare, che spingono gli utenti verso i materiali che li possono più coinvolgere, che connettono gli utenti ai gruppi d’odio, che raccomandano di seguire teorici del complotto – come ‘intermediari di internet’ che dovrebbero essere completamente immuni alle conseguenze delle loro azioni è assurdo”, denuncia ancora Yaël Eisenstat. Nemmeno un provider di internet è neutrale, perché può decidere chi ospitare sulla rete e chi no. A maggior ragione questo aggettivo non si può applicare a un social network. “Forse dovremmo creare una categoria più accurata che rifletta ciò che queste aziende realmente sono, come può essere quella di ‘curatori digitali’, i cui algoritmi decidono quale contenuto amplificare o silenziare”

Nel momento stesso in cui si decidono delle regole di condotta – anche minime – non si è più neutrali, mentre non avere nessuna regola è impraticabile. “Se i social media diventano più attivi a classificare algoritmicamente i contenuti che gli utenti caricano, e a moderare quelli indesiderati, allora stanno diventando sempre più simili a degli editori, scrive l’Economist, segnalando come negli ultimi due anni la quantità di contenuti rimossi da Facebook è aumentata di dieci volte e quella di Twitter è raddoppiata nel corso del solo 2019. 

Disfare i monopoli

Superato questo scoglio, bisogna affrontarne un altro: la mancanza di concorrenza. “Se Facebook vuole eliminare Trump – o anche le foto di madri che allattano – questa è una sua prerogativa aziendale”, si legge ancora sulla Tech Review. “Il problema non è che Facebook non abbia il diritto di farlo, ma semmai che – a causa delle sue acquisizioni e dell’irrefrenabile crescita – gli utenti non hanno quasi nessun luogo alternativo in cui recarsi.

L’enorme potere decisionale delle piattaforme è prerogativa di numero limitatissimo di colossi. Incentivare una maggiore concorrenza significa anche costringere ogni piattaforma a scegliere se essere mainstream o di nicchia, più o meno permissiva, se schierata politicamente e in quale direzione (mentre adesso sono tutto ciò contemporaneamente). E significherebbe anche dare agli utenti hanno possibilità di scegliere quale social frequentare come scelgono che testata leggere. Le piattaforme sono al momento invece un oligopolio che occupa qualunque spazio possibile e che non lascia agli utenti libertà di decidere dove andare. E che inevitabilmente portano a urlare alla censura quando le loro scelte sono troppo cariche di conseguenze. 

Zuckerberg paragonava qualche tempo fa Facebook a una piazza pubblica dove chiunque può quindi dire quello gli pare. Non è così: più il tempo passa e più è evidente come i social network assomiglino in parte a dei mass media, con le responsabilità che ne conseguono. Dal canto suo, la politica deve invece incentivare la concorrenza per far aumentare il numero di attori in gioco e sottrarre così a Twitter e gli altri una parte dell’eccessivo potere che oggi posseggono. Un altro aspetto che deve cambiare è quello della discrezionalità: “Che le decisioni più importanti vengano prese sul momento all’interno dell’ufficio di un Ceo è un errore”, ha spiegato David Kaye, relatore dell’Onu per la libertà d’espressione. “Ci devono essere delle regole chiare per tutti e applicate in maniera trasparente, senza che questo processo venga inficiato dalle pressioni politiche”

Una maggiore trasparenza metterebbe le piattaforme al riparo da buona parte delle contestazioni. È stato aver tollerato i discorsi d’odio di Trump così a lungo che ha reso criticabile l’improvvisa decisione di sospenderlo. Se la stessa decisione fosse stata presa ben prima – in un momento meno incandescente dal punto di vista politico, seguendo delle norme chiare e comuni – le critiche sarebbero state sicuramente meno accese e forse non saremmo mai arrivato a vivere un momento politico così critico. 

In assenza di questa trasparenza, la palla passa inevitabilmente alle nazioni. Ed è ciò che sta già in parte avvenendo: la decisione degli Stati Uniti di rendere le piattaforme responsabili dei contenuti che favoriscono il traffico sessuale ha portato Tumblr – con un eccesso di scrupolo – a rimuovere dal suo sito i contenuti esplicitamente sessuali. In Francia, Facebook ha ricevuto l’ordine di cancellare un’immagine photoshoppata di Macron in abbigliamento intimo rosa perché violava una legge del 1881. In Italia si è varata la polizia anti-fake news.

La maniera caotica e poco coerente in cui le nazioni si stanno muovendo sotto questo fronte può avere un imprevisto effetto collaterale: “I governi autoritari prendono spunto da queste approssimative regolamentazioni delle nazioni democratiche”, prosegue David Kaye. E così, per fare solo un esempio, la democrazia “parzialmente libera” di Singapore ha introdotto nel 2019 una legge contro le fake news che assomiglia più a una censura discrezionale dell’informazione sgradita. 

Per evitare che ogni nazione si cucisca un Facebook su misura, spiega Jillian York, le piattaforme devono aderire ai principi “per la protezione della libertà d’espressione e della privacy” enunciati nell’ambito di iniziative transnazionali come la Global Network Initiative, che coinvolgono aziende, istituzioni e anche la politica. Una cornice più ampia fornirebbe protezione da alcune richieste illegittime e permetterebbe di evitare decisioni improvvisate e prese con una discrezionalità spesso poco comprensibile, opportunistica e opaca. 

E quindi, chi decide cosa si può dire online? Nessuno, in particolare. Ma se le piattaforme abbandoneranno la pretesa neutralità che è sempre stata solo di convenienza, se la politica saprà rompere l’attuale oligopolio e se entrambe, assieme, sapranno dotarsi di una cornice chiara, la caotica e intricatissima matassa in cui al momento ci troviamo potrà iniziare a essere sbrogliata.

Potrebbe interessarti anche





[Fonte Wired.it]