Seleziona una pagina
martedì, Apr 06

Algoritmi, come le piccole imprese possono prevenire i pregiudizi



Da Wired.it :

Cefriel e ZenaByte hanno sviluppato un software che rileva il livello di equità delle piattaforme di intelligenza artificiale e suggerire eventuali contromisure per mitigare i risultati

Intelligenza artificiale
(Foto: Chris McGrath/Getty Images)

Il problema dell’intelligenza artificiale (Ai, ndr) è di essere un sistema intrinsecamente discriminatorio. Il suo compito è classificare le informazioni, quindi discriminare i contenuti assegnandoli in categorie. E questo lo fa affidandosi ad algoritmi e dati forniti da persone“. Enrico Frumento, senior domain expert di Cefriel, centro di innovazione digitale fondato dal Politecnico di Milano, conferma a Wired gli effetti collaterali dovuti al pregiudizio artificiale”. Un tema caldissimo, che, per esempio, è stato più volte sollevato negli Stati Uniti dalla deputata democratica Alexandra Ocasio-Cortez.

Per esempio, nel caso di un sistema che tramite Ai assegna un mutuo, l’algoritmo non può sapere se questo lavoro di classificazione viene fatto considerando anche elementi che sono eticamente discutibili“, spiega lo specialista: “Si pensi anche solo all’uso di informazioni come colore pelle, religione o genere. In passato si è scoperto che nel campo sanitario statunitense un sistema sfavoriva gli afroamericani, perché a fronte di malattie gravi spendevano meno in medicine a causa dei redditi più bassi”.

Le iniquità che si annidano nei dati utilizzati per addestrare i modelli di Ai spesso “sono dovuti a una rappresentazione non adeguata di specifiche comunità di una popolazione“, dice Frumento. E quindi una delle possibili azioni di contenimento è quella di impiegare uno strumento come Amnesia, che sta per Assessment of fairness of Ngi Ai-based future interactive technologies.

Che cos’è Amnesia?

Cefriel e ZenaByte, spin-off dell’Università di Genova specialista in Ai e data analytics, con il finanziamento della Commissione europea grazie al piano Horizon 2020, hanno messo a punto uno strumento software che “potrà aiutare le piccole e medie imprese a misurare il grado di equità ed etica di una soluzione di Ai e fornire la miglior soluzione disponibile sul mercato“. Già, perché per intervenire direttamente sugli algoritmi sono richieste competenze multidisciplinari spesso presenti “soltanto in aziende informatiche o di consulenza estremamente specializzate“, come ricorda Carlo Dambra, fondatore di Zenabyte.

Amnesia intelligenza artificiale
La dashboard di Amnesia

Amnesia nasce quindi per le piccole e medie imprese che normalmente sviluppano servizi o applicazioni basati sull’intelligenza artificiale sfruttando le più diffuse piattaforme automatiche. Si pensi a soluzioni come ad esempio Google Cloud AutoMl, Amazon SageMaker Autopilot, Microsoft Azure AutoMl e le versioni di Apple e Facebook. Il problema però è che, in base all’ambito di applicazione, bisogna scegliere il miglior compromesso tra equità e accuratezza.

Il software consente di selezionare i set di dati di riferimento, il software di apprendimento automatico automatizzato di interesse e altri parametri per eseguire simulazioni. Dopodiché gli sviluppatori delle aziende ottengono un responso e possono scegliere di conseguenza la suite ideale per i loro scopi in relazione alle aree finanziaria, sanitaria o scolastica.

Amnesia intelligenza artificiale
Il rapporto tra equità (x) e accuratezza (y) di tre sistemi automatizzati diversi

Amnesia dà anche suggerimenti su come mitigare la situazione e anche il bilanciamento tra accuratezza ed equità”, spiega Dambra: “Questi ultimi sono in contrapposizione: se, per esempio, si modificano i dati di training per essere più equi si rischia di perdere in precisione. In sintesi, consente di ottenere una risposta alle seguenti domande: qual è la soluzione automatica di Ai che offre il miglior compromesso tra accuratezza ed equità? A quanta accuratezza devo rinunciare per raggiungere il livello di equità adeguato all’applicazione che intendo sviluppare? Cosa dovrei fare per ridurre l’iniquità?“.

Obiettivo Ai responsabile

Il software Amnesia ha superato la linea del proof of concept ed è entrata nella fase prototipale. Oggi le imprese possono scegliere tra più di 20 segmenti di applicazione e ottenere velocemente un responso. La prospettiva futura però è di andare oltre e consentire questa operazione su base dati di proprietà delle aziende. Si può supporre che un domani un’assicurazione possa valutare la propria equità interna.

L’intelligenza artificiale è ormai parte integrante della vita di tutti, dai contenuti proposti sui social network alle macchine a guida autonoma, dal monitoraggio dell’apprendimento degli studenti all’individuazione degli evasori fiscali“, conclude Frumento: “La mancanza di equità dei sistemi di Ai, oltre a creare discriminazione e problemi etici, può sfociare in responsabilità legali e conseguenti richieste di danni a carico delle aziende che li sviluppano e li utilizzano“. Gartner nel 2020 ha introdotto il concetto di “Ai responsabile“, sottolineando come le imprese debbano iniziare ad agire eticamente in tal senso. Per altro anche la strategia italiana ed europea sull’intelligenza artificiale prevede fra gli obiettivi la promozione della consapevolezza e della fiducia nell’Ai fra i cittadini.

Potrebbe interessarti anche





[Fonte Wired.it]