Seleziona una pagina
martedì, Giu 09

Ibm, no al riconoscimento facciale per fare sorveglianza di massa



Da Wired.it :

L’amministratore delegato Arvid Krishna, spiega in una lettera al Congresso Usa che la sua azienda non fornirà più tecnologie per progetti di sorveglianza sociale

(foto: Matthias Balk/picture alliance via Getty Images)

Ibm esce dai progetti che vedono l’intelligenza artificiale e le sue tecnologie per il riconoscimento facciale impiegate in modo sempre più massiccio per funzioni di sorveglianza e spesso in violazione dei diritti sulla privacy. Ad annunciarlo è lo stesso amministratore delegato del colosso informatico, Arvind Krishna, fresco di nomina, in una lettera al Congresso degli Stati Uniti in cui chiede ad alcuni senatori che siano stabilite delle regole certe per evitare ogni tipo di abuso.

La compagnia fa così sapere che non farà più ricerca, non svilupperà più quelle tecnologie e nemmeno venderà i servizi a essa legati, senza che venga aperto un dibattito nazionale sulla questione dell’uso del riconoscimento facciale. “Ibm si oppone con fermezza e non ammetterà l’uso di alcuna tecnologia, inclusa la tecnologia di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà fondamentali, scrive Arvid Krishna.

Algoritmi “razzisti”

In particolare, l’amministratore delegato del colosso americano chiama gli sviluppatori di queste tecnologie a una maggiore responsabilità nel momento in cui sistemi di riconoscimento facciale vengono utilizzati dalle forze dell’ordine e per far rispettare la legge. Inoltre, con questa decisione la compagnia tocca anche un altro nervo scoperto su cui gli esperti dei sistemi di intelligenza artificiale dibattono da anni, cioè quello dei pregiudizi razziali che spesso vanno a informare quelle stesse tecnologie nella fase di programmazione.

Gli algoritmi che sorreggono quelle tecnologie risultano ancora spesso poco affidabili e in certi casi mostrano dei veri e propri pregiudizi riguardo all’identificazione dell’età o dell’appartenenza etnica. La questione era stata già sollevata nel 2019 dalla deputata democratica americana Alexandria Ocasio-Cortez, che aveva parlato proprio di “pregiudizi” nel caso di alcuni sistemi di intelligenza artificiale.

Sempre l’anno scorso, poi, anche il colosso Amazon, tra i principali fornitori di software per il riconoscimento facciale con il suo Rekognition, già usato in molti distretti di polizia statunitensi, aveva avviato un dibattito per arrivare a una proposta di legge sulla regolamentazione di quelle tecnologie. E proprio Rekognition era stato criticato nel 2018 per la sua scarsa accuratezza dei risultati in diverse occasioni.

Ma il dibattito riguarda anche altri big della tecnologica. Facebook, per esempio, all’inizio di quest’anno ha pattuito il pagamento di una multa da 550 milioni di dollari per chiudere una class action per l’uso illegale di un software di riconoscimento facciale che aveva permesso al social network l’archiviazione di dati biometrici dei suoi utenti. E sempre a inizio anno era esploso il caso di Clearview Ai, la società che fornisce servizi di riconoscimento facciale alle forze di polizia in tutto il mondo ed è stata indagata per violazione della privacy dopo aver utilizzato illegalmente oltre 3 miliardi di immagini prese dai social network per allenare la sua intelligenza artificiale.

Insomma, la decisione di Ibm di uscire dal business del riconoscimento facciale si inscrive negli Stati Uniti in un quadro complicato in cui l’uso di quegli strumenti manca ancora di regole precise e di un sistema normativo diffuso. Inoltre, la scelta del colosso informatico arriva anche in un momento in cui la questione razziale è tristemente tornata in prima pagina dopo le violenze e gli abusi delle forze dell’ordine contro la comunità afroamericana e il caso dell’assassinio di George Floyd a Minneapolis.

Potrebbe interessarti anche





[Fonte Wired.it]