Seleziona una pagina
lunedì, Mar 13

Intelligenza artificiale: se l’Europa vuole regolarla, deve fare alle svelta



Da Wired.it :

Da un lato le istanze dell’industria per il libero sviluppo della ricerca. Dall’altro le richieste di ricercatori e associazioni per la tutela contro i rischi di uno stato di sorveglianza. C’è fermento perché l’Ai Act, il regolamento europeo sull’intelligenza artificiale, disciplinerà una tecnologia in continua evoluzione. Tema al centro di un convegno organizzato a Bruxelles dal correlatore dell’Ai Act  all’Europarlamento Brando Benifei. Presentato nel 2021, il primo atto normativo organico sull’intelligenza artificiale (Ai) mai discusso al mondo sarà votato dell’Europarlamento ad aprile e successivamente negoziato nel trilogo (Parlamento, Commissione e Consiglio dell’Unione europea).

Il caso ChatGPT

L’obiettivo è la difesa diritti con la necessità competere in un mercato globale in stadio avanzato”, ha affermato Benifei introducendo l’incontro. Dragos Tudorache, liberale rumeno, già presidente della commissione speciale dell’Europarlamento sull’intelligenza artificiale, correlatore con Benifei dell’Ai Act, ha aperto il suo intervento facendo riferimento alle critiche da parte di chi nell’industria ritiene che “l’Unione regola prima di innovare”. Ha difeso “la strada europea all’intelligenza artificiale”, perché “i rischi di pregiudizi nei dati sono già realtà” e “c’è bisogno di regole certe” per una tecnologia che ha “impatto sulla società, sull’economia, sulla politica e – sempre di più – sulla geopolitica”. 

Tudorache ha ricordato come con il correlatore Benifei stanno lavorando per affrontare le sfide poste da ChatGPT nella posizione dell’Europarlamento sul regolamento. “Capiamo che l’evoluzione sarà la norma: il testo dovrà contenere un meccanismo che lo renda adattabile a future sfide, per quanto possibile”. Werner Stengg, consigliere per il digitale della Commissaria alla concorrenza Margarethe Vestager, ha evidenziato l’approccio dell’Ai Act basato sui rischi: “Ci sono poche proibizioni, solo quelle incompatibili con i nostri valori (punteggio sociale, manipolazione dei vulnerabili, sorveglianza di massa)”; “c’è un limitato numero di applicazioni ad alto rischio (sui temi di lavoro e salute, cui cittadini sono molto sensibili) che non sono vietate ma solo sottoposte a richieste di dovuta diligenza, trasparenza e responsabilità”; infine “c’è poi un’enorme quantità di applicazioni per aumentare l’efficienza della produzione, quindi senza limiti”.

Lo scontro politico tra Parlamento e Consiglio

L’Ai Act può influenzare lo sviluppo dell’intelligenza anche negli Usa, dove vediamo ora una maggiore riflessione su questi temi”, ha detto Lucilla Sioli, direttrice per Intelligenza artificiale e industria digitale della Direzione generale Connect della Commissione europea. Sioli ha evidenziato l’attenzione del regolamento alle necessità dell’industria attraverso i cosiddetti sandbox, ovvero spazi all’interno dei quali è possibile sviluppare nuove tecnologie, anche se la loro attuazione sarebbe vietata dal regolamento. 

Diversi sono i punti politici che contrappongono Parlamento e Consiglio sull’Ai Act. “Il più importante è l’identificazione biometrica da remoto, che per il Parlamento deve essere bandita del tutto, mentre per il Consiglio devono essere aumentate le eccezioni che permettono il suo utilizzo da parte delle forze dell’ordine, già previste dalla Commissione”, ha sottolineato Sioli. Inoltre, “mentre la Commissione propone l’auto valutazione del rischio da parte dei produttori dei sistemi di intelligenza artificiale, questa viene criticata dal Parlamento”, che invece propone una valutazione di impatto da parte degli utilizzatori delle tecnologie (come le pubbliche amministrazioni). “L’esigenza è avere una chiara scelta sulle autorità competenti e sulla governance del regolamento – ha commentato Edoardo Raffiotta, professore di diritto dell’innovazione e intelligenza artificiale dell’Università Bicocca – al centro ci sono i dati personali dei cittadini e il ruolo svolto dai garanti della privacy”.

Sex robot e sistemi di Ai affettiva

È sorprendente che il riconoscimento delle emozioni non sia qualificato come tecnologia ad alto rischio”, ha detto Gianclaudio Malgieri, docente all’Università di Leiden e coordinatore scientifico di Vulnera – Osservatorio Internazionale sulle persone vulnerabili nella protezione dei dati. Malgieri ha sottolineato come i sistemi di intelligenza artificiale affettiva (sex robot, cura personale etc) “creano dipendenza ma non sono qualificati come ad alto rischio, né a rischio limitato”. Per il ricercatore la valutazione del rischio di queste tecnologie dovrebbe essere fatta con la partecipazione di persone che interagiscono con esse. Nell’attuale proposta di regolamento in discussione, solo la Commissione può aggiornare la lista delle applicazioni dell’Ai Act ad alto rischio e per questo sottoposte dal regolamento a specifici obblighi di trasparenza, dovuta diligenza e responsabilità. Inoltre, ad oggi nell’Ai Act è vietato “solo lo sfruttamento intenzionale” di persone vulnerabili (identificate per età e condizione di disabilità).

Rischi di sotterfugi per sfuggire al regolamento

Stuart Russel, professore di Computer Science all’Università di Berkeley ha sottolineato i rischi legati a una definizione sfuggente dell’intelligenza artificiale nel regolamento: “Descrivere l’intelligenza artificiale come una lista di “metodi” creati dal machine learning è un invito a aggirare le norme attraverso sotterfugi”. Secondo Russel, anche se il punteggio sociale (social scoring) è bandito dall’Ai Act, questa norma potrebbe essere aggirata: “Immagino imprese impegnarsi a sviluppare “metodi non Ai” perfettamente funzionanti nel fare punteggio sociale ma che aggirano il linguaggio tecnico dell’Ai Act e quindi non sono da questo regolati”. “I sistemi di intelligenza artificiale sono frutto di una complessa catena di produzione – ha specificato Russel – sono necessarie regole e standard per i componenti dell’Ai, anche se questi non si qualificano come sistemi di Ai”. Per Russel è necessario “istituire un’agenzia con esperti e poteri regolatori sull’Ai in ogni Stato, con un coordinamento globale”. Inoltre per affrontare “il problema dell’utilizzo negligente di sistemi di Ai pericolosi”, l’accademico propone “un cambio sistemico nel nostro sistema digitale, che impedisca l’esecuzione e la trasmissione di sistemi che possono essere catastrofici per l’umanità”.

Per Sarah Chandler, consulente senior dell’ong European Digital Rights (Edri) sarà fondamentale “estendere la registrazione dei sistemi di Ai ad alto rischio in database pubblici, non solo quelli già sul mercato ma tutti quelli utilizzati”. Sarà necessario indicare gli obblighi legali: “Non solo la perfezione tecnologica ma i possibili rischi e quali azioni sono necessarie per mitigarli”.



[Fonte Wired.it]