Seleziona una pagina
martedì, Set 22

Twitter ha problemi di razzismo con l’algoritmo delle foto?



Da Wired.it :

L’algoritmo che ritaglia le immagini per le anteprime predilige i volti con la pelle chiara a discapito di quella scura. L’azienda già al lavoro sulla segnalazione

Per essere meno offensivo e usare un linguaggio inclusivo Twitter è al lavoro per rimuovere termini tecnici potenzialmente razzisti (immagine: Porro Gabriele/Wired)

Il modo con cui Twitter sceglie di mostrare l’anteprima delle foto sul social network darebbe involontatariamente esiti razzisti, prediligendo la visualizzazione di volti che hanno la pelle chiara a dispetto di quella scura.  A notare la spiacevole preferenza della rete neurale che seleziona le anteprime è stato un utente di Twitter, che ha notato che in due foto pubblicate, il suo collega di origini africane non compariva nelle anteprime nella versione mobile. In quelle foto, anche se erano ritratti entrambi, sembrava esserci solo lui: un uomo bianco.

Il caso ha scatenato la curiosità di molti utenti, che hanno immediatamente provato a giocare con l’algoritmo caricando delle immagini molto lunghe. L’intenzione era quella di legare due foto, una di un volto con la pelle chiara e uno con la pelle scura, separate da un grosso spazio bianco in modo che l’immagine non ci potesse stare per intero nell’anteprima proposta dal social network.

Un utente ha fatto questo esperimento separando le foto di Barack Obama e di Mitch McConnell. Nella prima immagine la foto di Obama stava nella parte alta, nella seconda occupava la parte bassa. In entrambi i casi, però, nell’anteprima del post troneggiava il faccione sorridente di McConnell.

Un altro test è stato fatto con i personaggi dei Simpson, Lenny e Carl. Con lo stesso metodo i due soggetti sono stati separati da uno spazio vuoto alternandone la posizione nell’immagine. Il risultato? Anche con dei personaggi disegnati Twitter ha preferito mostrare nell’anteprima il volto più chiaro.

I numerosi test pubblicati dagli utenti hanno immediatamente attirato l’attenzione del social network, che ha deciso di far luce sul modo di agire del suo algoritmo. “Il nostro team ha testato i pregiudizi prima di spedire il modello e non ha trovato prove di pregiudizi razziali o di genere nei nostri test”, ha spiegato Liz Kelly, del team di comunicazione di Twitter sulle pagine di Mashable:Ma è chiaro da questi esempi che abbiamo più analisi da fare. Stiamo esaminando questo aspetto e continueremo a condividere ciò che apprendiamo e le azioni che intraprendiamo. Renderemo open source il nostro lavoro in modo che altri possano rivederlo e replicare”.

Secondo Twitter la motivazione principale che spingerebbe l’algoritmo che seleziona le anteprime a comportarsi involontariamente in modo razzista, sarebbe dettata da un’impostazione che guarda la luminosità e il contrasto delle foto. Così facendo, però, la pelle di tonalità più scura viene penalizzata.

Potrebbe interessarti anche





[Fonte Wired.it]