Seleziona una pagina
martedì, Mar 07

Intelligenza artificiale, chi paga i danni?



Da Wired.it :

Accanto ai tradizionali profili della responsabilità civile per fatto dell’uomo, dobbiamo ora confrontarci con i profili legali della responsabilità derivante dall’uso di sistemi di intelligenza artificiale. I sistemi di intelligenza artificiale stanno raggiungendo livelli di autonomia sempre più avanzati, soprattutto nei casi di machine learning, in cui le “macchine”, opportunamente istruite, acquisiscono capacità di imparare e di elaborare soluzioni in maniera (quasi) del tutto autonoma.
Ma cosa si intende per intelligenza artificiale? L’Unione europea, per prima, ha dato una definizione di intelligenza artificiale nel Piano coordinato sull’intelligenza artificiale Com (2018) 795 final: “Per ‘intelligenza artificiale’ (Ai) si intendono quei sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici”.

Analoga definizione è contenuta nel Libro bianco sull’intelligenza artificiale del 2020 e nella successiva comunicazione dell’Unione europea (2021) 205. Nella proposta di Regolamento sull’intelligenza artificiale Com (2021) 206 l’intelligenza artificiale è definita come “un software sviluppato […], che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”. 

Nella proposta si ipotizza anche la regolamentazione delle cosiddette intelligenze artificiali “ad
alto rischio, ossia quei sistemi il cui utilizzo può comportare rischi per i “diritti fondamentali”.
A livello italiano ci si è limitati a recepire i principi fissati a livello europeo, come emerge dal Programma strategico di intelligenza artificiale 2022 – 2024. 

Assenza di una regolamentazione specifica 

In assenza di una regolamentazione specifica della responsabilità derivante dall’utilizzo di sistemi di intelligenza artificiale, a quali disposizioni possiamo/dobbiamo fare riferimento oggi in Italia in questo ambito? Conosciamo la dicotomia, nell’ambito della responsabilità civile, tra responsabilità extracontrattuale e responsabilità contrattuale. Tralasciando il tema della responsabilità da prodotto difettoso (applicabile in astratto anche ai sistemi di intelligenza artificiale) le prime norme cui fare riferimento, in caso di responsabilità extracontrattuale, potrebbero essere gli articoli 2050 c.c. e 2051 del Codice civile che prevedono, rispettivamente, la responsabilità da “attività pericolosa” e da “cosa in custodia”

Si tratta tuttavia di disposizioni che potrebbero non essere del tutto adeguate rispetto ai nuovi scenari. Non è detto che l’attività di intelligenza artificiale sia necessariamente una “attività pericolosa”, tale cioè da comportare una rilevante probabilità di causare danni a terzi. Dall’altra parte, anche la nozione tradizionale di “custodia” potrebbe rivelarsi inadeguata rispetto ad un sistema in grado di prendere decisioni o esprimere opinioni in maniera indipendente. Tali disposizioni, inoltre, non esonerano comunque il danneggiato dalla prova del danno subito, oltre che del nesso causale tra il danno sofferto e, rispettivamente, l’attività pericolosa o la cosa in custodia. Dall’altra parte, anche la regola generale della responsabilità per fatto illecito di cui all’art. 2043 del Codice civile, richiede al danneggiato (in ipotesi dal sistema di intelligenza artificiale) la prova della colpa o del danneggiante.



[Fonte Wired.it]