L’intelligenza artificiale entra (davvero) nel diritto. Ma non senza regole. Dopo l’approvazione dell’AI Act a livello europeo, l’Italia muove il primo passo verso una disciplina nazionale dell’intelligenza artificiale nell’attività giudiziaria e forense, con un disegno di legge che pone paletti chiari: niente giudici-robot, né avvocati algoritmici. Solo supporto, mai sostituzione.
E le prime pronunce della giurisprudenza non si fanno attendere: a Firenze, ChatGPT finisce sul banco degli imputati per ‘allucinazioni’ giuridiche. Il futuro è arrivato e la norma cerca di tenerne il passo. Il 20 marzo 2025 il Senato ha approvato il disegno di legge in materia di intelligenza artificiale (Ddl AI), con l’obiettivo di armonizzare la normativa nazionale alle disposizioni del Regolamento (Ue) 2024/1689 (AI Act).
Cosa cambia ora
Tra le novità più rilevanti, si segnalano le disposizioni che regolano l’utilizzo dell’AI nei settori delle professioni intellettuali, l’intelligenza artificiale potrà essere impiegata solo come supporto all’attività del professionista, senza mai sostituirne il contributo umano. Per i professionisti, fra cui anche gli avvocati, l’impiego di sistemi di intelligenza artificiale è consentito esclusivamente nell’ambito di attività strumentali e di supporto alla prestazione professionale, con la necessaria prevalenza dell’apporto intellettuale umano quale elemento caratterizzante dell’opera.
Tale principio rispecchia l’esigenza di garantire che l’attività professionale non venga automatizzata in modo tale da comprometterne l’autonomia, la responsabilità e la qualità, in conformità ai doveri deontologici e ai canoni etici della professione. Inoltre, è previsto in capo al professionista l’obbligo di informare preventivamente il cliente circa l’utilizzo, le funzionalità e le implicazioni dei sistemi di intelligenza artificiale eventualmente impiegati nello svolgimento dell’incarico. Si tratta di un obbligo di trasparenza già fatto proprio da diverse linee guida emanate dagli ordini professionali, tra cui merita menzione il punto 3 della “Carta dei principi per un uso consapevole di strumenti di intelligenza artificiale in ambito forense”, adottata dall’Ordine degli Avvocati di Milano, che sottolinea la necessità di preservare la consapevolezza e la fiducia del cliente nell’attività difensiva.
Analogo principio si applica all’attività giudiziaria: i sistemi di AI potranno affiancare il lavoro del giudice e dell’avvocato, ma senza mai compromettere l’autonomia della valutazione umana, poiché i sistemi di intelligenza artificiale saranno consentiti solo per attività strumentali e di supporto all’attività della magistratura. In questo contesto si inserisce una recente ordinanza del Tribunale di Firenze (13 marzo 2025), che ha affrontato, seppur incidentalmente, l’uso dell’AI negli atti difensivi. Il caso riguarda l’impiego improprio di ChatGPT da parte di un legale, con riferimento alla possibile responsabilità aggravata per lite temeraria (ex art. 96 del codice di procedura civile). Al centro della vicenda, il fenomeno delle cosiddette “allucinazioni” dell’AI: la generazione di riferimenti giuridici del tutto inventati, ma presentati come attendibili.
Rischi e tutele
Il rischio che l’intelligenza artificiale produca contenuti fittizi e che questi vengano utilizzati nei procedimenti giudiziari o nelle attività dei professionisti, senza un controllo critico da parte dell’operatore umano, solleva interrogativi importanti, non solo per l’attività forense ma anche per quella giudiziaria. Questo fenomeno può rappresentare un pericolo non solo per l’attività forense ma anche per l’attività giudiziarie, poiché l’avvocato o il giudice che anche solo si affidino esclusivamente alle ricerche condotte dall’AI rischiano di incorrere in gravi errori. Ciò solo considerando l’uso di sistemi di intelligenza artificiale quale supporto all’attività del legale o del giudice, senza indagare nell’ambito di utilizzo di sistemi AI per la cosiddetta “giustizia predittiva”, cioè l’utilizzo di AI (ad esempio analisi di dati) per prevedere comportamenti o esiti giudiziari futuri, con l’obiettivo di supportare le decisioni nel sistema giudiziario.