Come spiegano gli esperti di TikTok, spesso le comunità che fanno riferimento a questi ambiti utilizzano parole in codice, a volte anche il semplice uso di determinati emoticon, che sono estremamente difficili da interpretare. L’intelligenza artificiale generativa, sotto questo profilo, consente di tenere il passo e migliorare la capacità di individuare quegli indizi che potrebbero sfuggire a un occhio umano.
Il difficile rapporto tra i moderatori e l’algoritmo
La strategia dichiarata di TikTok nell’uso dell’AI per la moderazione dei contenuti è quello che ormai viene proposto invariabilmente in qualsiasi ambito tecnologico: un mix di artificiale e umano che porta vantaggi a tutti. Nel dettaglio, il social network dichiara che l’introduzione degli strumenti di intelligenza artificiale avrebbe migliorato sia l’efficacia della moderazione, sia le condizioni di lavoro dei moderatori stessi.
Il tema del benessere dei lavoratori non riguarda tanto una (improbabile) riduzione dei ritmi di lavoro, quanto l’impatto a livello psicologico. Uno dei problemi emersi negli ultimi anni e più volte denunciato dalla categoria, è infatti quello di essere sottoposti a un vero e proprio bombardamento di contenuti violenti o, comunque, disturbanti.
Secondo TikTok, l’adozione dell’AI avrebbe permesso di ridurre del 76% l’esposizione dei moderatori a contenuti che violano le regole della community. Sul piano dell’efficacia, invece, l’algoritmo avrebbe permesso di ridurre del 34% gli interventi errati in fase di moderazione e raddoppiare il numero di commenti inappropriati rimossi. Inoltre, il 94% dei contenuti vietati verrebbero rimossi entro 24 ore.
Esiste, però, il rovescio della medaglia: il miglioramento a livello di efficienza si traduce (come al solito) in tagli al personale. Se nel corso dell’incontro stampa i responsabili del social network non si sono sbilanciati sull’impatto occupazionale, è la cronaca recente a confermare il problema. A farne le spese, quest’anno, sono stati 300 lavoratori nel Regno Unito e 150 a Berlino, sostituiti dall’AI e dal ricorso a società esterne.
Il contrasto ai deepfake
Se l’AI generativa viene considerata un valido alleato per migliorare l’efficacia delle moderazioni, l’altra faccia della medaglia è rappresentata dal rischio legato ai contenuti generati con sistemi di intelligenza artificiale, definiti in gergo come AI Generated Content (AICG).
Le preoccupazioni, in questo ambito, non riguardano tanto la tipologia dei contenuti, quanto la possibilità che l’AI venga utilizzata per campagne di disinformazione. Se nell’opinione pubblica fanno molto presa gli episodi di contenuti razzisti, sessisti e violenti generati con l’AI, nell’ottica della gestione della piattaforma è un falso problema. Contenuti di questo genere, infatti, vengono rimossi a prescindere dal fatto che siano stati creati utilizzando strumenti di intelligenza artificiale.



