Esplora il mondo della tecnologia e del lifestyle con Consigli Tech e Lifestyle di Flavio Perrone

Pubblica amministrazione, non รจ chiaro quanti sistemi di intelligenza artificiale usi in Italia

di webmaster | Mag 16, 2025 | Tecnologia


Da tempo la pubblica amministrazione ha cominciato a fare ricorso alla gestione automatizzata dei dati. Il boom dellโ€™intelligenza artificiale ha fornito unโ€™ulteriore spinta. La tentazione, del resto, รจ forte: meno personale richiesto, meno tempo, meno risorse: in una parola, piรน efficienza.

La macchina non si stanca, puรฒ processare miliardi di informazioni al secondo, una mole di lavoro che prima avrebbe richiesto settimane. Eppure, lโ€™esperienza ha mostrato i limiti di un approccio eccessivamente sbilanciato verso lโ€™ottimismo: come nel caso di Syry, il sistema olandese che ha spedito verifiche fiscali a migliaia cittadini. Inchieste indipendenti hanno mostrato che lโ€™algoritmo era distorto, curvato da pregiudizi. E a farne le spese sono le categorie piรน svantaggiate: sia per le distorsioni implicite nelle black box dei software, sia perchรฉ โ€“ in caso di problemi โ€“ per queste ultime รจ piรน difficile ottenere giustizia.

Su base volontaria

Fermare le conseguenze di un sistema mal tarato รจ difficile: una delle caratteristiche principali รจ la scalabilitร , cioรจ la possibilitร  di prendere migliaia di decisioni allโ€™istante. Per questo un lavoro come quello dellโ€™Osservatorio sullโ€™Amministrazione automatizzata รจ fondamentale. Avviato nel 2018 da un gruppo di volontari, ha appena pubblicato un rapporto che mappa i sistemi in uso in Italia, Stato che โ€“ sorprendentemente โ€“ รจ secondo solo ai Paesi Bassi quanto a impiego di queste tecnologie in Europa.

Il rapporto รจ una base imprescindibile per qualunque ricerca sul tema focalizzata sulla Penisola. โ€œMa, dopo averlo preparato, troviamo preoccupante che un compito del genere sia toccato a noiโ€, dice a Wiredย  Marta Marchiori, dottoranda in Intelligenza artificiale allโ€™universitร  di Pisa, tra le curatrici del volume. Il perchรฉ รจ presto detto: โ€œManca un registro pubblico aggiornato e sistematico che evidenzi lโ€™utilizzo di sistemi avanzati di intelligenza artificiale nella pubblica amministrazione del nostro paeseโ€, prosegue. Un compito che di recente si รจ data l’Agenzia per l’Italia digitale (Agid) con il suo piano per l’AI nella PA. Marchiori precisa: โ€œรˆ chiaro che il nostro lavoro ha dei limiti: del resto รจ stato realizzato su base volontaria. Ma, nondimeno, รจ unโ€™occasione per evidenziare il divario enorme che cโ€™รจ fra quello che dovrebbe essere e la situazione realeโ€.

Rischio deresponsabilizzazione

Ma perchรฉ le pubbliche amministrazioni si rivolgono sempre piรน spesso a questo tipo di sistemi? La risposta si trova nelle prime pagine. โ€œMolto spesso, lโ€™automazione รจ vista come un modo per migliorare la qualitร  dei servizi e aumentarne lโ€™efficienzaโ€, si legge, โ€œdata la possibilitร  di trattare ed incrociare enormi quantitร  di dati in tempi molto breviโ€. Ma, prosegue il testo, โ€œprove crescenti suggeriscono che un utilizzo disattento, poco trasparente e non sufficientemente responsabile dei sistemi automatizzati nellโ€™erogazione dei servizi pubblici puรฒ impattare criticamente la vita dei cittadini. Si fa riferimento ad ambiti particolarmente sensibili (lavoro, finanza, sanitร , scuola etc.): laddove in precedenza uno stesso compito complesso e ad alta responsabilitร  era eseguito da un essere umano, oggi per la prima volta รจ possibile doversi confrontare con processi automatizzati senza esserne a conoscenzaโ€.

Marta Marchiori

Il rischio concreto dellโ€™introduzione di questi tool รจ โ€œla deresponsabilizzazione dellโ€™amministrazione, che, invece di appoggiarsi a tali sistemi come strumento di supporto, spesso affida lโ€™intero processo decisionale agli algoritmi. Una delle differenze piรน significative tra una decisione umana ed una automatizzata รจ la scalabilitร  degli output algoritmici: la capacitร  di analizzare enormi quantitร  di dati e di trovare correlazioni tra situazioni simili se ricorre una stessa variabile mette la macchina nella condizione di poter applicare una stessa decisione a milioni di persone nello stesso istante. Un rischio connesso รจ quello di eliminare la discrezionalitร , raggruppando i cittadini in macro categorie definite in modo arbitrario dalla macchina stessaโ€.ย  Un inferno distopico che per alcuni รจ giร  realtร , โ€œcome nel caso dellโ€™assegnazione delle cattedre agli insegnanti di qualche anno faโ€, riprende Marchiori. โ€œE trovare un responsabile, in questi casi, diventa molto difficileโ€: di chi รจ la colpa, della casa produttrice del software, di chi lโ€™ha allenato, del dirigente che lโ€™ha scelto, di chi ha supervisionato o avrebbe dovuto farlo?



Fonte

Written By

Scritto da Flavio Perrone, consulente informatico e appassionato di tecnologia e lifestyle. Con una carriera che abbraccia piรน di tre decenni, Flavio offre una prospettiva unica e informata su come la tecnologia puรฒ migliorare la nostra vita quotidiana.

Related Posts

Impact-Site-Verification: c90fc852-aae7-4b2e-b737-f9de00223cb0