Seleziona una pagina
sabato, Gen 21

Intelligenza artificiale, gli algoritmi che discriminano chi cerca casa negli Stati Uniti



Da Wired.it :

Due anni fa, Mary Louis ha presentato una domanda di affitto per un appartamento a Granada Highlands, un condomino a Malden, in Massachusetts. Le piaceva il fatto che la casa avesse due bagni e che nel palazzo ci fosse una piscina. Il proprietario però ha respinto la richiesta della donna, presumibilmente a causa del punteggio assegnatole da un algoritmo per la selezione degli inquilini realizzato dalla società SafeRent.

Louis ha presentato invano alcune referenze che testimoniavano 16 anni di affitti pagati puntualmente. Alla fine ha dovuto virare su un altro appartamento, che costava 200 dollari in più al mese e si trovava in una zona con un tasso di criminalità più elevato. Secondo la class action presentata dalla donna e altre persone lo scorso maggio, tuttavia, i punteggi di SafeRent – basati in parte sulle informazioni contenute nelle relazioni sull’affidabilità creditizia – costituiscono una discriminazione nei confronti degli affittuari neri e ispanici, e pertanto violano il Fair Housing Act. La legge statunitense, che proibisce la discriminazione sulla base di etnia, disabilità, religione o nazionalità, fu approvata dal Congresso una settimana dopo l’assassinio di Martin Luther King Jr., nel 1968.

Nuovi metodi per la solita discriminazione

L’azione legale è ancora in corso, ma la scorsa settimana il Dipartimento di giustizia degli Stati Uniti ha inviato un avvertimento ai proprietari di immobili e alle società che sviluppano algoritmi per la selezione degli inquilini. SafeRent aveva dichiarato che gli algoritmi utilizzati dall’azienda non sono soggetti al Fair Housing Act in quanto i punteggi si limitano a fornire indicazioni ai proprietari delle abitazioni senza prendere decisioni. Una memoria del Dipartimento di giustizia, depositata insieme al Dipartimento delle politiche abitative e dello sviluppo urbano, respinge però questa tesi, sottolineando che la legge e la giurisprudenza non lasciano dubbi.

“I fornitori di alloggi, e le società di selezione degli inquilini che utilizzano algoritmi e dati per la selezione degli inquilini, non sono esenti da responsabilità quando le loro pratiche negano  in modo sproporzionato l’accesso a opportunità abitative eque alle persone di colore”, ha dichiarato in un comunicato Kristen Clarke, capo della divisione per i diritti civili del Dipartimento di giustizia.

Gli algoritmi che assegnano punteggi alle persone sono diventati sempre più comuni nel settore immobiliare. Nonostante le argomentazioni secondo cui assicurerebbero una maggiore efficienza o consentirebbero di identificare “inquilini migliori”, negli Stati Uniti questi sistemi potrebbero in realtà contribuire alla storica e persistente discriminazione di alcune minoranze.



[Fonte Wired.it]