Seleziona una pagina

da Hardware Upgrade :

Lo scorso mese di settembre l’agenzia stampa Reuters ha
incaricato la
Coalition for Independent Technology Research di condurre un
sondaggio presso 167 studiosi e ricercatori accademici e della società
civile dal quale è emerso come oltre 100 attività di ricerca su X
(Twitter) sono state annullate, sospese o focalizzate verso altre
piattaforme
da quando Elon Musk ha limitato, a partire dallo scorso
febbraio, l’accesso ai dati di X ponendoli a pagamento. L’indagine
di Reuters
ha potuto quantificare per la prima volta, da quando
l’accesso ai dati di X è divenuto a pagamento, quale sia il numero degli
studi annullati come diretta conseguenza.

Questa dinamica ha effetto sugli studi riguardanti i fenomeni di hate
speech e sulla sicurezza online dei minori
, ma anche su quelle
analisi e attività di monitoraggio che hanno lo scopo di tracciare la
diffusione di informazioni false in tempo reale durante eventi di
particolare rilievo. Caso recente e particolarmente attuale riguarda la
disinformazione relativa al conflitto israelo-palestinese, ancor più
difficile da rintracciare poiché mossa principalmente da account
verificati.

Già lo scorso febbraio la Coalition for Independent Technology Research
ha
pubblicato una lettera
per portare l’attenzione sul fatto che il
pagamento di tariffe elevate per l’accesso ai dati di X (precedentemente
gratuiti) avrebbe condotto “all’interruzione di progetti cruciali portati
avanti da migliaia di giornalisti, accademici e attivisti della società
civile in tutto il mondo, che studiano questioni fondamentali dei nostri
tempi”. La conseguenza di quanto sta accadendo è il rischio che gli
utenti della piattaforma diventino maggiormente esposti ad hate speech,
disinformazione e fake news
.



Ci sono alcuni ricercatori che hanno comunque voluto portare avanti i
propri studi, arrivando però al punto di dover analizzare a mano i post
sulla piattaforma. Ovviamente tutto ciò va a rallentare significativamente
l’analisi, con possibili ricadute sulla qualità degli esiti degli studi.

La diffusione della disinformazione relativa al conflitto tra Israele e
Palestina ha già sollevato l’attenzione dell’Unione Europea, che ha
sventolato la minaccia di sanzioni ad X nel caso in cui non si
dimostrasse capace di porre un argine al problema
.

La piattaforma di microblogging ha risposto sottolineando di aver
intrapreso una serie di azioni allo scopo, tra cui la rimozione di
nuovi account che risultano collegati all’organizzazione terroristica di
Hamas
, la chiusura di account impegnati a manipolare argomenti di
tendenza, la collaborazione con organizzazioni partner per segnalare
contenuti terroristici, l’intervento su “decine di migliaia di post” e il
monitoraggio proattivo di discorsi antisemiti.

Si tratta di misure la cui efficacia non è ancora chiara e proprio per
via del fatto che numerosi ricercatori indipendenti hanno sospeso
l’analisi dei dati in tempo reale di X per valutare l’esistenza di minacce
emergenti sulla piattaforma. Ad aver allontanato le attività di ricerca da
X non è stata solo la limitazione dell’accesso ai dati, ma anche il
timore che Elon Musk possa trascinare in tribunale i ricercatori
,
dopo il precedente della causa
intentata contro il Center for Countering Digital Hate nel corso
dell’estate
, accusandola di diffondere informazioni false sui
livelli di hate speech presenti su X e di incoraggiare gli inserzionisti
di sospendere gli investimenti sulla piattaforma. 



X ha recentemente inviato all’UE un rapporto
sulla trasparenza
, in ottemperanza a quanto stabilito nel Digital
Services Act, in cui prova a dimostrare che “libera espressione e
sicurezza della piattaforma possono coesistere”. La linea tenuta da X è
quella di consentire la maggior parte dei post che non siano minacce
violente, molestie mirate o violazioni della privacy, rimuovendo inoltre
“contenuti e account pericolosi e illegali” e a rispondere a segnalazioni
su contenuti illegali. All’atto pratico, al momento, X limita la
diffusione di contenuti che rientrano in ciò che può essere ritenuto
“legale ma deplorevole” senza però rimuoverli
.  

“X è riflesso delle conversazioni reali nel mondo, che possono includere
punti di vista offensivi, controversi o di mentalità ristretta per altre
persone. Pur dando il benvenuto a tutti ad esprimersi su X, non
tollereremo comportamenti che molestino, minaccino, disumanizzino o
zittiscano le voci altrui” si legge nel rapporto inviato all’UE.

Nei giorni scorsi il CEO Linda Yaccarino ha
citato
alcuni partner come la Technology Coalition,
l’Anti-Defamation League, l’American Jewish Committee e il Global Internet
Forum to Counter Terrorism tra i gruppi che aiutano X a moderare i “rischi
potenziali” e a supportare le misure di sicurezza. Ma ovviamente la
collaborazione con partner non ha la stessa efficacia della ricerca
indipendente e l’indagine di Reuters evidenzia come queste ultime siano
sempre più difficili da reperire.

E proprio a tal proposito la stessa Reuters riporta una dichiarazione di
un portavoce di Sprinklr, una società che aiuta i brand a
monitorare le esperienze dei clienti, e che era stata menzionata a luglio
da X per suffragare i dati secondo cui “oltre il 99% dei contenuti su X
sono sani”. Il portavoce ha però affermato che quanto esposto da X non
poteva essere confermato, precisando che “ogni report esterno recente di X
è stato preparato senza il coinvolgimento di Sprinklr”.

Source link