Da Wired.it :
L’algoritmo che ritaglia le immagini per le anteprime predilige i volti con la pelle chiara a discapito di quella scura. L’azienda già al lavoro sulla segnalazione
Il modo con cui Twitter sceglie di mostrare l’anteprima delle foto sul social network darebbe involontatariamente esiti razzisti, prediligendo la visualizzazione di volti che hanno la pelle chiara a dispetto di quella scura. A notare la spiacevole preferenza della rete neurale che seleziona le anteprime è stato un utente di Twitter, che ha notato che in due foto pubblicate, il suo collega di origini africane non compariva nelle anteprime nella versione mobile. In quelle foto, anche se erano ritratti entrambi, sembrava esserci solo lui: un uomo bianco.
Turns out @zoom_us has a crappy face-detection algorithm that erases black faces…and determines that a nice pale globe in the background must be a better face than what should be obvious.
— Colin Madland (@colinmadland) September 19, 2020
Il caso ha scatenato la curiosità di molti utenti, che hanno immediatamente provato a giocare con l’algoritmo caricando delle immagini molto lunghe. L’intenzione era quella di legare due foto, una di un volto con la pelle chiara e uno con la pelle scura, separate da un grosso spazio bianco in modo che l’immagine non ci potesse stare per intero nell’anteprima proposta dal social network.
Trying a horrible experiment…
Which will the Twitter algorithm pick: Mitch McConnell or Barack Obama? pic.twitter.com/bR1GRyCkia
— Tony “Abolish (Pol)ICE” Arcieri 🦀 (@bascule) September 19, 2020
Un utente ha fatto questo esperimento separando le foto di Barack Obama e di Mitch McConnell. Nella prima immagine la foto di Obama stava nella parte alta, nella seconda occupava la parte bassa. In entrambi i casi, però, nell’anteprima del post troneggiava il faccione sorridente di McConnell.
I wonder if Twitter does this to fictional characters too.
Lenny Carl pic.twitter.com/fmJMWkkYEf
— Jordan Simonovski (@_jsimonovski) September 20, 2020
Un altro test è stato fatto con i personaggi dei Simpson, Lenny e Carl. Con lo stesso metodo i due soggetti sono stati separati da uno spazio vuoto alternandone la posizione nell’immagine. Il risultato? Anche con dei personaggi disegnati Twitter ha preferito mostrare nell’anteprima il volto più chiaro.
I numerosi test pubblicati dagli utenti hanno immediatamente attirato l’attenzione del social network, che ha deciso di far luce sul modo di agire del suo algoritmo. “Il nostro team ha testato i pregiudizi prima di spedire il modello e non ha trovato prove di pregiudizi razziali o di genere nei nostri test”, ha spiegato Liz Kelly, del team di comunicazione di Twitter sulle pagine di Mashable: “Ma è chiaro da questi esempi che abbiamo più analisi da fare. Stiamo esaminando questo aspetto e continueremo a condividere ciò che apprendiamo e le azioni che intraprendiamo. Renderemo open source il nostro lavoro in modo che altri possano rivederlo e replicare”.
Secondo Twitter la motivazione principale che spingerebbe l’algoritmo che seleziona le anteprime a comportarsi involontariamente in modo razzista, sarebbe dettata da un’impostazione che guarda la luminosità e il contrasto delle foto. Così facendo, però, la pelle di tonalità più scura viene penalizzata.
Potrebbe interessarti anche