Da Wired.it :
Il problema principale dellâetica dellâintelligenza artificiale è che non serve unâetica dellâintelligenza artificiale. Almeno non per come se ne parla. Il rischio, infatti, è che si finisca per spostare sulle macchine un tema che è squisitamente umano. Come se potessimo immaginare regole e modelli per lâIA che vivano indipendentemente dal contesto nel quale lâIA agisce e che contribuisce a ridefinire. Come se parlare di etica dellâIA rendesse lecito un processo di deresponsabilizzazione, individuale e collettiva, derivante dal fatto che il peso delle scelte possa davvero essere spostato in un algoritmo di cui lâessere umano è oggetto, ma non soggetto attivo.
Con la scusa dellâetica degli algoritmi finiamo per convincerci che lâetica è negli algoritmi, dimenticando che siamo noi a dover dare unâetica a ciò che fanno gli algoritmi. Insomma: dopo lo Stato Etico ci mancavano le intelligenze artificiali etiche. Figlie di una crisi globale della politica e delle ideologie che, dopo lâantropocene, spera forse in una sorta di tecnocene per toglierle le
castagne dal fuoco. Quando Floridi sostiene che è fondamentale definire le questioni etiche che derivano dalla pervasività dellâIA ha perfettamente ragione. Ma del suo libro non basta leggere il titolo. Come fare, quindi, per costruire un modello di riferimento che sia universalmente valido? In fondo è semplice: lâetica deve fare un passo indietro o, meglio, salire di un livello.
Dobbiamo accettare che la realtà è complessa. Ciò che pare etico oggi potrebbe non sembrarlo domani, e ciò che lo è in una parte del mondo potrebbe non esserlo in unâaltra. Dâaltro canto, ci sono culture in cui imporre alle ragazze di smettere di studiare superate le scuole elementari è considerato giusto. Non saremo certo noi, quindi, a poter decretare la sconfitta del relativismo
culturale e darla vinta a Kant. à sbagliato pensare ad unâIA âetica by designâ. Abbiamo bisogno, piuttosto, di IA sostenibili. E per esserlo devono disporre di quelle caratteristiche – non etiche, ma tecniche – che rompano la âscatola neraâ dellâalgoritmo e consentano di controllarlo. Insomma: non IA intrinsecamente âequeâ, ma IA trasparenti, che ci consentano di sapere su quali basi scelgono. IA non discriminatorie, ma anche IA che siano in grado di consentirci di attuare discriminazioni positive, quando la scelta politica e sociale è quella di favorire la parte discriminata (si pensi alle quote rosa).
Questo vuol dire poter entrare nellâalgoritmo, poterne definire i parametri, decidere come farlo lavorare ed avere visibilità su come ha operato. La discussione, quindi, non è sullâetica dellâIA, ma su quali caratteristiche tecniche debba avere lâIA per consentirci di usarla in modo etico. Tra queste, il Manifesto per la Sostenibilità dellâIA, della Fondazione per la Sostenibilità Digitale,
identifica fattori come trasparenza, privacy, sicurezza, revoca, riconoscibilità , portabilità , interoperabilità . In un G7 che sarà giocato in buona parte su questi temi non dovremmo cercare improbabili equilibri globali su cosa è buono e cosa è cattivo, ma applicare criteri di sostenibilità economica e sociale allâintelligenza artificiale. Per farlo possiamo lavorare su quei princìpi che – benché perfettibili – sono stati già codificati in Agenda 2030, e che oggi possiamo sfruttare come orientamento comune per identificare quali criteri dovranno essere rispettati dai grandi attori che stanno sviluppando sistemi basati sullâIA.
Si pensi alle grandi scelte che la vedranno coinvolta. Dalla priorità per un trapianto alla classifica di un concorso pubblico, lâIA del Vaticano dovrà poter ragionare in maniera diversa da quella di Mosca, così come dovranno fare quella dello Stato italiano e quella di Kabul. A modelli culturali diversi devono poter corrispondere modelli etici diversi, ma per renderlo possibile servono princìpi tecnici comuni. Non abbiamo bisogno di intelligenze artificiali che scelgano per noi cosa è giusto o cosa è sbagliato, ma di strumenti che ci aiutino a capirlo.