Seleziona una pagina
domenica, Set 29

Francesca Rossi al Wired Next Fest: “Anche le macchine devono seguire codici deontologici e di condotta”


Se deleghiamo alle macchine le decisioni che impattano sulla vita delle persone, ci deve essere trasparenza e attenzione all’etica: la scienziata global leader di Ibm per l’etica dell’Ai ha parlato anche di macchine “superintelligenti” sempre più simili alle persone

Francesca Rossi Wired Next Fest Firenze
(foto: Selene Maestri, Franco Russo, Zoe Vincenti)

Possiamo fidarci dell’intelligenza artificiale? È questa la domanda centrale a cui, sul palco del Wired Next Fest di Firenze, ha cercato di dare risposta Francesca Rossi, scienziata nel campo dell’intelligenza artificiale e global leader dell’Ibm per l’etica dell’Ai. Un tema articolato e complesso, che spazia dal modo in cui le macchine vengono programmate agli eventuali pregiudizi culturali di chi le sviluppa e alle buone prassi di che le commercializza, passando per la nostra accettazione sul fatto che una macchina possa prendere una decisione che può avere effetto concreto e fisico sulla nostra vita.

Il punto di partenza della chiacchierata in un affollato Salone dei Cinquecento è stata la trasformazione dell’intelligenza artificiale nell’ultimo trentennio: “Molti pensano che sia nata meno di 10 anni fa, ossia da quando sui media se ne parla molto”, ha esordito Rossi, “ma è un tema che esiste dal 1956. Ci sono due modi per dire alle macchine come risolvere i problemi: o li risolviamo noi e li traduciamo in linguaggio di programmazione oppure, per tutti i problemi in cui la soluzione non è ben chiara, diamo alla macchina tanti esempi di soluzioni. Quest’ultimo è il caso, ad esempio, del riconoscimento di un’immagine come quella di un volto, in cui la macchina apprende come risolvere il problema a partire dagli esempi già risolti che vengono forniti”. Qual è la vera novità allora? “Per ogni singolo problema da risolvere servono milioni di esempi: questa enorme mole di dati disponibili a tutti non c’era fino a qualche anno fa, così come non esistevano calcolatori abbastanza potenti per elaborarli. Ora invece tutto ciò si può fare, come peraltro abbiamo già visto accadere con gli algoritmi dei comandi vocali, addestrati e migliorati grazie all’utilizzo da parte degli utenti”.

Dal presente al futuro, si è parlato anche di intelligenza artificiale generale (o superintelligenza), ossia di quel tipo di Ia che rende le macchine ancora più simili alle persone. “La superintelligenza è un tipo di intelligenza più vicina a quella umana”, ha spiegato Rossi, “in cui si spazia in modo orizzontale da un problema all’altro. Le macchine per ora sanno lavorare molto bene in verticale su un solo problema per volta, ma costringono a ricominciare da capo per ogni nuovo problema. Con l’arrivo della superintelligenza le macchine supereranno le persone in tutte le attività, aprendo anche il dibattito a temi quasi mitologici, quali il dubbio su come mantenere il controllo di ciò che le macchine fanno”.

Le macchine già oggi di fatto prendono decisioni, e come sappiamo a volte commettono errori, a volte anche in modo a noi incomprensibile. “Oggi ci si basa su un approccio probabilistico ed esiste sempre una certa percentuale di errore”, ha commentato Rossi. “Gli errori delle macchine sono numericamente meno di quelli umani, ma sono differenti da quelli che potremmo fare noi e riguardano aspetti che possono sembrarci banali”. Il motivo? Gli algoritmi ragionano in modo diverso dalla persone, e perciò possono commettere errori su cose che noi non sbaglieremmo”.

E se sbagliare può significare anche impattare sulla salute delle persone (basta pensare a un eventuale incidente provocato da un’automobile self-driving), possiamo davvero accettare questi errori? “Anzitutto va detto che il sistema della guida autonoma in futuro salverà molte vite umane, ha risposto Rossi, “ma inevitabilmente qualche incidente ci sarà. Il tema però è più generale: se noi deleghiamo delle decisioni a delle macchine, o ci facciamo suggerire delle soluzioni dagli algoritmi – dallo scegliere quali terapie somministrare a un paziente alla gestione delle richieste dei mutui o delle incarcerazioni – è importante che le macchine sappiano capire quale decisione sia migliore anche in base a principi etici e morali, partendo dai codici deontologici e di condotta.

Come è parso chiaro dallo scambio di battute sul palco, quello che si vuole evitare è anche che le macchine possano fare delle discriminazioni, di sesso, di provenienza geografica o per qualunque altra ragione: “Il problema è proprio che le macchine apprendono da un insieme di esempi, ha raccontato Rossi, “e se sono presenti delle correlazioni anche involontarie tra le variabili, potrebbe succedere che una decisione dipenda dal sesso della persona. Pure se il programmatore non aveva intenzione di trasmettere un bias alla macchina, può succedere che si generi inavvertitamente, oppure può essere il frutto di un pregiudizio radicato nel programmatore: per questo è importante che i programmatori siano educati e formati su questo tipo di problemi e che i team di lavoro siano multidisciplinari e il più vari possibile, in modo che si accorgano di eventuali storture”.

Tra le diverse possibili soluzioni discusse sul palco, una in particolare è cara a Rossi, come ha scritto anche nel suo libro Il confine del futuro: “Una strada percorribile è dare un certificato alle macchine, ha sintetizzato, “ossia assicurare che ci sia una certa trasparenza da parte dei produttori di AI su come le macchine sono state programmate, su quali esempi sono stati dati loro in pasto, su quale tipo di bias può esserci e su come avvenga il processo decisionale”.

E nel 2020 Francesca Rossi sarà il general chair del convegno dell’Association for the Advancement of Artificial Intelligence, il più grande convegno mondiale sull’intelligenza artificiale. Un’occasione per parlare non solo di etica anche di intrecci tra tecnologia e cultura: “La Cina sta entrando sempre più in iniziative come questa”, commenta Rossi, “e il governo cinese usa già l’Ai in vari modi. Anche se a noi alcuni di questi modi possono sembrare poco etici – se ad esempio parliamo di privacy o di mantenimento della stabilità sociale – è difficile giudicare una cultura quando si appartiene a un’altra. Quale potrebbe essere allora il ruolo strategico del Vecchio Continente in questo contesto? “Come sappiamo negli Stati Uniti ci sono grandi investimenti e anche tanta innovazione dal basso”, spiega, “mentre l’Europa, Italia inclusa, può dare l’esempio su come migliorare la tecnologia in modo che possa sempre essere davvero al servizio delle persone e della societàQuesta parte è più semplice per il nostro continente, perché noi siamo l’unico in cui c’è una regolamentazione sul trattamento dei dati, e non a caso gli altri guardano all’Europa per capire come adottare lo stesso modello”.

E, infine, ancora un cenno all’etica, complementare a quanto al Wired Next Fest di Milano aveva raccontato Giacomo Rizzolatti a proposito di robot capaci di essere empatici: “Il fatto che le macchine possano interpretare i nostri sentimenti è positivo”, ha chiarito Rossi, “ma bisogna stare attenti che macchine con queste capacità non diano adito a manipolazioni e persuasioni, a maggior ragione se le macchine devono interagire con i bambini. Ecco perché anche in questo senso gli aspetti etici sono fondamentali”.

Potrebbe interessarti anche





Source link