Da tempo la pubblica amministrazione ha cominciato a fare ricorso alla gestione automatizzata dei dati. Il boom dellโintelligenza artificiale ha fornito unโulteriore spinta. La tentazione, del resto, รจ forte: meno personale richiesto, meno tempo, meno risorse: in una parola, piรน efficienza.
La macchina non si stanca, puรฒ processare miliardi di informazioni al secondo, una mole di lavoro che prima avrebbe richiesto settimane. Eppure, lโesperienza ha mostrato i limiti di un approccio eccessivamente sbilanciato verso lโottimismo: come nel caso di Syry, il sistema olandese che ha spedito verifiche fiscali a migliaia cittadini. Inchieste indipendenti hanno mostrato che lโalgoritmo era distorto, curvato da pregiudizi. E a farne le spese sono le categorie piรน svantaggiate: sia per le distorsioni implicite nelle black box dei software, sia perchรฉ โ in caso di problemi โ per queste ultime รจ piรน difficile ottenere giustizia.
Su base volontaria
Fermare le conseguenze di un sistema mal tarato รจ difficile: una delle caratteristiche principali รจ la scalabilitร , cioรจ la possibilitร di prendere migliaia di decisioni allโistante. Per questo un lavoro come quello dellโOsservatorio sullโAmministrazione automatizzata รจ fondamentale. Avviato nel 2018 da un gruppo di volontari, ha appena pubblicato un rapporto che mappa i sistemi in uso in Italia, Stato che โ sorprendentemente โ รจ secondo solo ai Paesi Bassi quanto a impiego di queste tecnologie in Europa.
Il rapporto รจ una base imprescindibile per qualunque ricerca sul tema focalizzata sulla Penisola. โMa, dopo averlo preparato, troviamo preoccupante che un compito del genere sia toccato a noiโ, dice a Wiredย Marta Marchiori, dottoranda in Intelligenza artificiale allโuniversitร di Pisa, tra le curatrici del volume. Il perchรฉ รจ presto detto: โManca un registro pubblico aggiornato e sistematico che evidenzi lโutilizzo di sistemi avanzati di intelligenza artificiale nella pubblica amministrazione del nostro paeseโ, prosegue. Un compito che di recente si รจ data l’Agenzia per l’Italia digitale (Agid) con il suo piano per l’AI nella PA. Marchiori precisa: โร chiaro che il nostro lavoro ha dei limiti: del resto รจ stato realizzato su base volontaria. Ma, nondimeno, รจ unโoccasione per evidenziare il divario enorme che cโรจ fra quello che dovrebbe essere e la situazione realeโ.
Rischio deresponsabilizzazione
Ma perchรฉ le pubbliche amministrazioni si rivolgono sempre piรน spesso a questo tipo di sistemi? La risposta si trova nelle prime pagine. โMolto spesso, lโautomazione รจ vista come un modo per migliorare la qualitร dei servizi e aumentarne lโefficienzaโ, si legge, โdata la possibilitร di trattare ed incrociare enormi quantitร di dati in tempi molto breviโ. Ma, prosegue il testo, โprove crescenti suggeriscono che un utilizzo disattento, poco trasparente e non sufficientemente responsabile dei sistemi automatizzati nellโerogazione dei servizi pubblici puรฒ impattare criticamente la vita dei cittadini. Si fa riferimento ad ambiti particolarmente sensibili (lavoro, finanza, sanitร , scuola etc.): laddove in precedenza uno stesso compito complesso e ad alta responsabilitร era eseguito da un essere umano, oggi per la prima volta รจ possibile doversi confrontare con processi automatizzati senza esserne a conoscenzaโ.
Il rischio concreto dellโintroduzione di questi tool รจ โla deresponsabilizzazione dellโamministrazione, che, invece di appoggiarsi a tali sistemi come strumento di supporto, spesso affida lโintero processo decisionale agli algoritmi. Una delle differenze piรน significative tra una decisione umana ed una automatizzata รจ la scalabilitร degli output algoritmici: la capacitร di analizzare enormi quantitร di dati e di trovare correlazioni tra situazioni simili se ricorre una stessa variabile mette la macchina nella condizione di poter applicare una stessa decisione a milioni di persone nello stesso istante. Un rischio connesso รจ quello di eliminare la discrezionalitร , raggruppando i cittadini in macro categorie definite in modo arbitrario dalla macchina stessaโ.ย Un inferno distopico che per alcuni รจ giร realtร , โcome nel caso dellโassegnazione delle cattedre agli insegnanti di qualche anno faโ, riprende Marchiori. โE trovare un responsabile, in questi casi, diventa molto difficileโ: di chi รจ la colpa, della casa produttrice del software, di chi lโha allenato, del dirigente che lโha scelto, di chi ha supervisionato o avrebbe dovuto farlo?



