Seleziona una pagina
lunedì, Giu 15

Perché il riconoscimento facciale è sotto accusa



Da Wired.it :

La facial recognition torna a scontrarsi con i pregiudizi etnici, soprattutto negli Stati Uniti, dove i colossi Amazon e Ibm si sono schierati contro la polizia per i rischi di profilazione razziale

(foto: Getty images)

Una delle tecnologie più divisive degli ultimi decenni: è il riconoscimento facciale. Negli ultimi giorni si sta assistendo a un vero e proprio terremoto tecnologico che lo riguarda, a partire dagli Stati Uniti. Lo scontro sociale fra cittadini e forze dell’ordine dopo l’uccisione di George Floyd a Minneapolis ha infatti travolto anche l’uso di questa tecnologia, da tempo accusata di favorire pregiudizi tramite la profilazione razziale, oltre al fatto di innescare una pericolosa sorveglianza di massa.

Questo accade soprattutto perché le forze dell’ordine e numerose aziende americane utilizzano il riconoscimento facciale proprio per identificare sospettati e vittime tramite un match con i database interni (o anche con il materiale presente su internet, soprattuto quello caricato sui social media). Un uso improprio, secondo vari gruppi che difendono il diritto alla privacy e sostengono che questi software agevolino pregiudizi razziali contro la comunità afroamericana.

In un’intervista al New York Times Timnit Gebru, co-responsabile tecnico dell’Ethical Artificial Intelligence Team di Google, ha detto di ritenere il riconoscimento facciale troppo pericoloso per essere usato in questo momento dalla polizia. Nello specifico, ha detto che, quando collaborava con il Mit Media Lab, ha riscontrato disparità molto alte nei tassi di errore: “Nello screening del melanoma, c’è una una tecnologia di rilevazione che non funziona per le persone con la pelle più scura”.

Le scelte di Ibm e Amazon

A dare il colpo di grazia alla facial recognition, in questo delicato momento, sono stati due giganti come Ibm e Amazon che hanno annunciato di sospendere temporaneamente l’uso di questa tecnologia. Nell’ordine, è stata Ibm a fare il primo passo dicendo che non fornirà più software o servizi di riconoscimento facciale per scopi generici al governo e alle forze dell’ordine americane. Il nuovo amministratore delegato dell’azienda, Arvind Krishna, ha scritto in una lettera che “Ibm si oppone fermamente e non perdonerà l’uso di alcuna tecnologia di riconoscimento facciale, comprese quelle offerte da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà o a qualsiasi fine che non sia coerente con i nostri valori e principi di fiducia e trasparenza”. A supporto del numero uno di Big Blue, fra l’altro anche fresco di nomina, ci sono di fatto varie ricerche – fra cui anche quella di Timnit Gebru – che indicano come la tecnologia di riconoscimento facciale subisce distorsioni in base all’età, alla razza e all’etnia.

Le parole di rottura di Krishna, neanche 48 ore più tardi, hanno visto l’eco dell’annuncio di Amazon. Il colosso ha deciso di vietare per un anno l’uso delle sue tecnologie per il riconoscimento facciale da parte della polizia. In questo caso le spiegazioni che arrivano da Seattle sono state meno specifiche, ma comunque chiare: “Esortiamo i governi a varare leggi più severe sull’uso etico di queste tecnologie di riconoscimento facciale”. Amazon che utilizza la controversa Rekognition – di fatto già in mano alla polizia – spera che lo stop di un anno dia tempo a sufficienza al congresso per partorire norme adeguate. Non bisogna dimenticarsi poi che questa tecnologia ha già dato filo da torcere a Bezos: nel 2019, infatti, un gruppo di azionisti aveva presentato una richiesta al board affinché il colosso globale dell’e-commerce smettesse di fornire alle agenzie governative statunitensi la propria tecnologia di riconoscimento facciale.

Insomma, l’effetto George Floyd sembra smuovere la polvere da sotto il tappeto complicando di certo la vita – e la sopravvivenza – di questa tecnologia, anche se non è la prima volta che viene messa in discussione. Lo scorso gennaio era scoppiato il caso Clearview AI, una società che aveva utilizzato miliardi di immagini tratte dai social network per arricchire il proprio algoritmo di riconoscimento facciale destinato alle forze di polizia. Se di certo le scelte di Amazon e Ibm sembrano dettare una tendenza chiara, dall’altro molti ritengono che non decreteranno la fine di questa tecnologia. Resta dunque la speranza di un impulso per l’adozione di politiche tecnologiche responsabili che vedano un utilizzo dell’intelligenza artificiale testata contro i cosiddetti “bias“.

Fra Europa e Cina

Lo scenario americano sull’uso del riconoscimento facciale in materia di sicurezza va sicuramente contestualizzato con altre due sistemi, dove anche questa tecnologia è diventata materia di discussione. Non è una novità la passione dei dati biometrici della Cina, dove il riconoscimento facciale è parte integrante della strategia di sicurezza imposta da Pechino. Secondo un report Comparitech, “la Cina fa un uso altamente invasivo della tecnologia di riconoscimento facciale nelle telecamere a circuito chiuso”. Si calcolano, infatti, 100 telecamere ogni mille abitanti, che fanno delle città cinesi le più sorvegliate del mondo. Ancor prima del Covid, poi, era stato introdotto anche il riconoscimento facciale anche per chi acquista una nuova sim telefonica per il cellulare.

Una tendenza opposta quella del vecchio continente, dove l’Unione europea sta invece giocando la sua partita in tutt’altra direzione e si dice preoccupata delle tendenze statunitensi e cinesi. Se a inizio anno era ventilata l’idea di una potenziale iniziativa volta a proibire l’implementazione di sistemi di riconoscimento facciale – con un divieto temporaneo, per un periodo compreso tra i 3 e i 5 anni – nel libro bianco sull’intelligenza artificiale, pubblicato successivamente, si legge che “la raccolta e l’uso di dati biometrici per l’identificazione remota, ad esempio attraverso diffusione del riconoscimento facciale in luoghi pubblici, comporta rischi specifici per i diritti fondamentali”. Fra le altre cose, poi, allo studio del Comitato europeo per la protezione dei dati in questi giorni c’è proprio l’illegalità di Clearview Ai nel territorio europeo.

Potrebbe interessarti anche





[Fonte Wired.it]