A Gaza si è visto il risvolto più duro e concreto della dirompenza dell’intelligenza artificiale. Scesa in campo, quello di battaglia, al fianco dell’esercito israeliano. Se sappiamo come funzionano Lavender e The Gospel, sistemi che a diverso grado aiutano l’Idf a capire dove lanciare le proprie bombe, è grazie alle inchieste giornalistiche di +972 magazine e Local Call. Da quel momento si è definitivamente aperto il dibattito internazionale sul tema, spesso polarizzato. Da una parte chi pensa che siano necessarie regole specifiche per evitare la deumanizzazione dei conflitti armati, dall’altra chi è convinto che la tecnologia possa risolvere eventuali mancanze o errori dell’essere umano. Davanti a questa complessità è sicuramente auspicabile un dibattito pubblico sempre più informato.
“Vedo grossi rischi in questo utilizzo dell’intelligenza artificiale: l’escalation involontaria ad esempio, ma anche il genocidio automatizzato che stiamo vedendo in questo periodo. Così come un altro fattore importante è l’accessibilità a queste tecnologie in termini di prezzo. Prima erano in mano alla Nato, ora a sempre più attori nel mondo” dice Mark Brakel, direttore policy del Future of Life Institute. Brakel ha avuto un ruolo determinante nella definizione dell’AI Act dell’Unione Europea. Per questo motivo è molto diretto quando parla della mancanza di una regolamentazione delle tecnologie militari: “Nell’AI Act viene detto nella prima frase: il regolamento non vale per quanto riguarda le applicazioni militari. E questo è un problema: non abbiamo ancora mai regolato questo settore”.
Mariarosaria Taddeo, docente di etica digitale e difesa all’Università di Oxford – e dal 2019 membro dell’Ethics Advis Advisory Panel del Ministero della Difesa inglese – aggiunge: “penso che l’Europa potrà essere aiutata a regolamentare questo settore grazie alle posizioni agli antipodi di Stati Uniti e Russia. Siamo sempre stati in pace, e giustamente non abbiamo mai parlato di tutto ciò. Ora però dovremmo farlo nel medio termine, costruendo un approccio europeo”.
Ciò che i governi europei si trovano davanti però, è un quadro ormai molto complesso. “Non comprano uno strumento, come si fa con i carri armati, ma un servizio” continua Mariarosaria Taddeo, ricordando il concetto di feudalesimo digitale. Un controllo monopolistico operato delle grandi piattaforme tecnologiche: se i signori feudali possedevano e controllavano le terre e la popolazione, nel feudalesimo digitale le piattaforme tecnologiche sono i signori che controllano i dati, l’accesso e l’esperienza online. “Bisogna capire cosa significa acquistare un servizio, come farlo e come gestirlo. Un esempio: Palantir ha fornito tecnologie sul campo di battaglia in Ucraina e l’unico modo per averne il controllo tecnico era affidarsi all’assistenza dell’azienda. Per non parlare dell’enorme quantità di dati che vengono creati in contesto di guerra e che poi rimangono in mano a compagnie private” dice Taddeo.