Seleziona una pagina
martedì, Mar 09

Il sistema di segnalazione dei contenuti di TikTok è un modello virtuoso?



Da Wired.it :

Tutti i social network offrono modi per segnalare i contenuti da rimuovere, ma è sulla piattaforma di Bytedance che l’utente riesce a orientarsi meglio: ne abbiamo parlato con Ernesto Belisario, avvocato ed esperto di diritto delle tecnologie

Avete mai segnalato un contenuto sui social? Le segnalazioni sono uno strumento di sicurezza attiva che le piattaforme offrono ai propri utenti per farsi aiutare nel controllare post e commenti. Tuttavia, segnalare un contenuto sui social può non essere semplice come condividere un video o rispondere a un commento o a un messaggio di chat. I vari Facebook, Instagram, Twitter e TikTok offrono tutti questo servizio, ma su alcune piattaforme l’utente riesce a orientarsi meglio che su altre. È proprio il caso del tanto discusso TikTok, al centro della cronaca recente a causa di alcune falle nella sicurezza per cui il Garante della Privacy ha richiesto di bloccare l’accesso ai minori di 13 anni. Se però si spostano i riflettori dell’attenzione al campo delle segnalazioni, si può notare il buon lavoro fatto dall’ex Musicall.ly per far in modo che gli utenti possano contribuire alla sicurezza della piattaforma. Dal punto di vista dell’utente, su TikTok è molto facile segnalare un contenuto inappropriato, forse molto di più che sugli altri social: e questo potrebbe andare ad aumentare l’efficacia del lavoro svolto sia dagli algoritmi, sia dai moderatori in carne ed ossa che controllano la sicurezza. 

Per garantire la sicurezza ai suoi iscritti, TikTok ha adottato un modulo di segnalazione che punta su accessibilità e trasparenza. Il numero delle macro-sezioni per effettuare una segnalazione, già a un primo impatto, è maggiore rispetto alla concorrenza: sono quattordici, quattro in più di Facebook e Instagram, mentre addirittura dieci in più di Twitter. “Sicuramente c’è uno sforzo di semplificazione” – spiega Ernesto Belisario, avvocato ed esperto di diritto delle tecnologie – “il modulo non deve essere semplicemente un obbligo normativo, ma i gestori delle piattaforme devono consentire l’accessibilità a tutti, specialmente se parliamo di quelle piattaforme che sono utilizzate da minori. Quindi ben venga ogni mezzo in grado di semplificare la comprensione dei propri diritti e delle proprie facoltà ma che allo stesso tempo permette di esercitare l’attività di segnalazione, fondamentale per migliorare l’applicazione”. In tal senso va anche la scelta di fornire all’utente una certa immediatezza nell’azione di segnalazione: dopo aver individuato l’icona dedicata, su TikTok ci si ritrova immediatamente nell’apposita area di selezione delle categorie. Per arrivare nella stessa pagina su Facebook si deve fare tap sull’icona “Qualcos’altro”, mentre per ottenere la stessa schermata, su Instagram, bisogna preferire la sezione “È inappropriato” a quella “Spam”.

La trasparenza scelta da TikTok fa leva sulla maggiore qualità utilizzata per descrivere le sottocategorie di una possibile segnalazione: in questo modo si riesce a individuare il contenuto che potenzialmente viola le linee guida grazie a delle descrizioni specifiche di quello che non può essere condiviso su TikTok. Cosa che non avviene su Instagram, Facebook o Twitter: qui la segnalazione viene confinata all’interno di una singola parola chiave generica. “In merito alle attività che vengono innescate dalla segnalazione” – prosegue Belisario – “è importante affermare un principio di trasparenza che la Commissione europea sta affermando con il pacchetto del Digital Service Act. Si tratta una proposta di regolamento, presentata all’inizio dell’anno, che dovrebbe contenere la normativa destinata ad essere applicata da parte dei gestori di piattaforme sulle attività di moderazione e trasparenza. La Commissione europea, infatti, prevede che se viene effettuata la rimozione di un contenuto perché contrario a una norma, il gestore della piattaforma quantomeno deve dirci quale norma è stata, perché dobbiamo difenderci eventualmente anche dei provvedimenti nei confronti della piattaforma”.

Ed è proprio in questo senso che TikTok, appena prima della pandemia, aveva deciso di muoversi decidendo di aprire dei Centri di trasparenza e responsabilità, ovvero una sorta di infopoint in cui ospiti e ricercatori avrebbero avuto la possibilità di esaminare il lavoro dei moderatori dei contenuti alle prese con le segnalazioni. Inoltre, nelle intenzioni del produttore ByteDance c’era anche quella di rendere disponibile l’algoritmo e il codice sorgente TikTok, per farlo sottoporre a test e valutazioni. “Con quest’iniziativa” – conclude Belisario – “TikTok ha lanciato il guanto di sfida agli altri social, dando la possibilità di far mettere il naso nell’attività dei suoi contenuti. Quella sulla trasparenza è una battaglia molto importante e terrà banco soprattutto nei prossimi anni”. Per ora però, come si legge sul sito ufficiale dell’applicazione, il progetto è solo rimandato a causa delle limitazioni imposte dalla pandemia di coronavirus, e l’apertura dei primi due centri, a Los Angeles e Washington, è stata posticipata.

Potrebbe interessarti anche





[Fonte Wired.it]