Seleziona una pagina
martedì, Nov 12

Siamo vicini all’impiego in guerra di robot killer autonomi


Secondo un ente no-profit olandese, l’applicazione dell’intelligenza artificiale nell’industria della difesa potrebbe portare a conseguenze disastrose se gli stati non intervengono con un’opportuna legislazione

(Foto: Getty Images)

Da qualche tempo, lo sviluppo di armi sempre più autonome ha sollevato profonde preoccupazioni, innescando un dibattito internazionale. In particolare, i sistemi autonomi di attacco, conosciuti come robot killer, sarebbero in grado di selezionare e attaccare singoli obiettivi senza un controllo umano. Un rapporto, pubblicato da Pax, un’organizzazione no-profit olandese, analizza proprio la tendenza in netto aumento nell’industria della difesa verso l’automazione nei sistemi d’arma. E lancia un allarme: i governi dei paesi devono adottare delle leggi sul tema prima che le armi senza controllo umano diventino realtà.

Lo studio sottolinea infatti che “negli ultimi dieci anni c’è stato un grande aumento del numero di paesi e aziende che lavorano su queste tecnologie”. Di fatto i robot killer non sono altro che robot militari che si sostituirebbero ai soldati sul campo di battaglia, a terra e in aria. Grazie all’intelligenza artificiale avrebbero capacità decisionali autonome cambiando radicalmente il modo di fare la guerra. Infatti, ci si chiede, se sarebbero in grado di distinguere fra soldati e civili, se opterebbero per azioni proporzionate o smisurate. “L’emergere di questa tipologia di armi avrebbe un impatto enorme sulle dinamiche di guerra, non a caso si parla di una terza rivoluzione in questo campo dopo la polvere da sparo e la bomba atomica” si legge nel rapporto.

Una manifestazione contro i droni a Londra (foto: CARL COURT/AFP via Getty Images)

Non solo: cosa anche più importante, sempre secondo Pax, è che queste armi “violerebbero i principi legali ed etici fondamentali, destabilizzando la pace e la sicurezza internazionali”. Come riporta Quartz, per la realizzazione di questo studio l’organizzazione olandese ha inviato questionari a 50 produttori di armi militari, chiedendo se avessero o meno politiche riguardo l’intelligenza artificiale. Solo otto hanno risposto dicendo che hanno in cantiere sistemi di questo tipo, dal resto invece c’è stato silenzio.

Questo, secondo Pax, è motivo di preoccupazione, così come un’altra questione: la responsabilità giuridica di questi robot killer. In effetti, qualora venga compiuto un illecito a chi si imputerebbe la responsabilità, se le macchine agiscono senza controllo umano? Questo interrogativo, strettamente connesso alla reale possibilità di errore, sposta il campo d’azione anche sulla più ampia applicazione del diritto all’intelligenza artificiale.

Cosa sono i robot killer

Insomma, i robot killer potrebbero portare a una vera e propria rivoluzione bellica su tutti i fronti. Nel rapporto si specifica che se già esistono dei “droni armati” – almeno 24 stati li posseggono e sono stati usati per combattere in 13 paesi – sta crescendo anche il numero di robot da terra che in maniera simile alle macchine senza pilota sono capaci di spostarsi e individuare l’obiettivo. Ma la vera novità sarebbero i test di sistemi d’armi autonome in campo marittimo. Già dal 2018 una società statunitense, specifica Pax, sta facendo ricerca su delle mini navi militari robotiche che automaticamente esplorano, individuano e neutralizzano delle mine.

Una fitta rete di appelli

Pax non è l’unica organizzazione che finora ha cercato di intervenire affinché si adotti una legislazione che impedisca il dilagare di questa tipologia di robot. Già nel 2017 un gruppo di scienziati si è riunito sotto lo slogan della campagna “Stop Killer Robots”, portando il problema davanti all’Onu affinché venisse posto un veto sui robot assassini. Alcuni paesi, come Russia, Stati Uniti e Israele, hanno ostacolato le richieste. Dello stesso anno anche la lettera aperta di alcuni scienziati sempre all’Onu.

Sulla stessa scia ci sono anche i moniti da parte di alcuni dei grandi nomi dell’innovazione contemporanea: tra questi ci sono anche il fondatore di Alibaba Jack Ma che, ha più volte indicato il rischio che l’intelligenza artificiale possa causare una “terza guerra mondiale” e il ceo di Tesla Elon Musk, secondo cui le macchine potrebbero diventare “un dittatore immortale”. Non per ultimo il caso di un’ex dipendente di Google, Laura Nolan, che ha lasciato il suo progetto di lavoro legato all’applicazione di intelligenza artificiale al campo militare proprio perché temeva di contribuire all’inizio di atrocità di massa.

Potrebbe interessarti anche





Source link