Esplora il mondo della tecnologia e del lifestyle con Consigli Tech e Lifestyle di Flavio Perrone

ChatGPT e le sue allucinazioni potrebbero diventare un problema per la giustizia

da | Apr 22, 2025 | Tecnologia


ChatGPT potrebbe diventare un problema per la giustizia. “Era solo una questione di tempo”, dice l’avvocato Ernesto Belisario. Effettivamente da quando nel dibattito pubblico è cominciato a risuonare il termine “allucinazioni” riferito ai chatbot che usiamo quotidianamente (come, appunto, ChatGPT), non è passato poi molto. Ora le informazioni false, ma presentate come vere dal modello linguistico sviluppato da OpenAI anche a seguito di più interrogazioni da parte dell’utente, sono arrivate sulla scrivania di un giudice del tribunale di Firenze. Destando preoccupazione per la possibilità che in un domani non troppo lontano possano ingolfare un sistema che è basato (anche) sulla buona fede e sulla professionalità degli attori, quello della giustizia.

Certo, i disclaimer avvisano di non fidarsi troppo. Ma, come ricostruito nelle carte giudiziarie riguardanti un recente caso discusso nel tribunale del capoluogo toscano,non sempre si prendono tutte le precauzioni necessarie. Come è accaduto a una collaboratrice del legale, che si è fatta aiutare da ChatGPT nel delicato compito di scrittura della memoria difensiva necessaria per il processo. Si tratta di un atto scritto che solitamente è usato dall’imputato di un processo penale per comunicare con il giudice al fine di rafforzare la propria posizione di innocenza.

Interrogato dalla donna, il chatbot ha fornito informazioni del tutto errate su alcune inesistenti sentenze della Corte di Cassazione, che sono finite però nei documenti ufficiali come prova di precedenti pronunce.

Presi da tante cose da fare, si può pensare che il chatbot sia una scorciatoia per velocizzare una consegna” continua Belisario, ricordando che di casi simili ne sono già avvenuti alcuni oltreoceano: a metà febbraio un avvocato statunitense, Rudwin Ayala, ha fatto ammenda davanti a una corte distrettuale del Wyoming per aver utilizzato informazioni errate fornite da uno strumento di intelligenza artificiale. Esattamente quanto successo a Firenze. Nella sua dichiarazione Ayala ha sostenuto di essersi pentito e di scusarsi con la corte e i suoi colleghi per “l’imbarazzo causato”. Ora che un caso simile è arrivato in Italia, ha senso chiedersi come sarà il futuro dei tribunali.

ChatGPT, il rischio di liti temerarie è concreto

Le allucinazioni che scaturiscono da ChatGPT o altri strumenti simili non producono unicamente un imbarazzo e, di conseguenza, una perdita di credibilità dello studio legale che non verifica le informazioni su cui regge la propria posizione davanti a un giudice. Se un avvocato usa informazioni false per sostenere la propria difesa può essere condannato per aver agito con mala fede, e dunque aver innescato una cosiddetta “lite temeraria”. Al di fuori di questa specifica vicenda, solitamente questi tipi di cause sono intentate da aziende contro giornalisti o attivisti per costringerli a subire iter processuali a volte molto lunghi, per poi decadere spesso in un nulla di fatto.

Non condivido molto la valutazione del giudice per cui tutto sommato si tratti di un peccato veniale, di una leggerezza priva di conseguenze” continua Belisario, ricordando che il mestiere dell’avvocato richiede cura e attenzione proprio per la responsabilità che ne deriva. Nelle carte si legge che, “fermo restando il disvalore relativo all’omessa verifica dell’effettiva esistenza delle sentenze risultanti dall’interrogazione dell’IA […], [l’avvocato, ndr] sin dal primo grado ha fondato la sua propria strategia difensiva in assenza di malafede”.

Un messaggio che corre il rischio di essere ambiguo, e di non dare forse il giusto peso a quanto successo. “Oltre alla brutta figura professionale infatti, stiamo comunque parlando di un grave errore non solo in relazione all’uso dell’IA. Non controllare le informazioni inserite in un atto giudiziario è una condotta che deve essere censurata” conclude l’avvocato. Forse è arrivato il momento di parlarne seriamente anche in Italia. A fronte di alcuni benefici dell’IA quali la velocità, questo caso dà la misura delle possibili gravi conseguenze di un suo uso indiscriminato.



Fonte

Written By

Scritto da Flavio Perrone, consulente informatico e appassionato di tecnologia e lifestyle. Con una carriera che abbraccia più di tre decenni, Flavio offre una prospettiva unica e informata su come la tecnologia può migliorare la nostra vita quotidiana.

Related Posts

Impact-Site-Verification: c90fc852-aae7-4b2e-b737-f9de00223cb0