Quarant’anni fa, nel luglio del 1984, negli Stati Uniti veniva pubblicato Neuromante, il romanzo con il quale lo scrittore canadese William Gibson faceva nascere il genere fantascientifico del cyberpunk. C’erano tutti i temi del futuro: i “cowboy della console” che navigavano il “cyberspazio”, le guerre tra enormi multinazionali tech e poi le intelligenze artificiali, che diventavano autonome e fuggivano in rete per combattere gli esseri umani.
Oggi l’idea che le intelligenze artificiali possano diventare senzienti รจ a dir poco controversa, ma che possano attaccare gli esseri umani in realtร non รจ impossibile. Anzi, รจ uno scenario futuro possibile, soprattutto se non prenderemo delle adeguate contromisure anche di carattere giuridico. “L’intelligenza artificiale sta creando nuove opportunitร nel mondo criminale, ma porta con sรฉ dei rischi enormi“, dice a Wired Stรฉphane Duguin, oggi ad di CyberPeace Institute ma per anni funzionario di Europol, il servizio di polizia europeo nel quale ha lavorato per contrastare la criminalitร organizzata.
L’industria della cybercriminalitร vuole massimizzare i profitti
Giร adesso l’intelligenza artificiale รจ giร utilizzata abbondantemente, dice Duguin: รจ uno strumento tecnologico che permette di automatizzare, e quindi rendere piรน efficaci ed economiche, molte attivitร che per gli attaccanti sono molto costose. “La cybercriminalitร ย โย dice Duguin durante un incontro organizzato all’Istituto universitario europeo di Firenze da Microsoft โ รจ una industria che come tale cerca il profitto. Oggi per tutti gli aspetti dei cyberattacchi viene utilizzato molto lavoro manuale di tipo tecnico. Automatizzarne una parte o addirittura tutto vuol dire ridurre i costi e aumentare i profitti dei cybercriminali“.
L’AI permette di farlo e, secondo Duguin, nel mondo della criminalitร ci si sta giร lavorando. “ร un sistema molto ampio โย dice Clint Watts, general manager del Threat Analysis Center di Microsoft โย con moltissimi attori diversi che si coordinano tra loro“. Una filiera che ha giร prodotti strumenti come WormGpt, l’alternativa a ChatGPT disponibile nel dark web e soprattutto priva dei “freni inibitori” programmati da OpenAI nel suo chatbot.
Tuttavia, c’รจ un altro rischio, che sembra preso di peso da un romanzo di fantascienza cyberpunk, e non รจ quello per la perdita dei posti di lavoro dei cybercriminali. “Con l’AI gli attacchi โย dice Duguin โย possono diventare completamente autonomi e andare avanti da soli, senza alcun controllo o limite“. In pratica: dopo aver costruito un sistema autonomo capace di attaccare reti, violare infrastrutture strategiche, ingannare sistemi di difesa o magari fare disinformazione contro la pubblica opinione di un Paese, basta scrivere un prompt e farร tutto da solo. Ma cosa succede se va avanti senza piรน fermarsi?
La filiera della cybercriminalitร
Sistemi come questo possono avere impatto in aree molto diverse. Mandare in tilt la rete energetica di un Paese oppure manipolare le informazioni di una elezione. Quest’ultimo aspetto รจ altrettanto preoccupante. “In Europa, rispetto ad altre aree del mondo โย dice Jakub Kalenskรฝ, vice direttore del Centro di eccellenza europea per il contrasto della minaccia ibrida โย non vediamo moltissima manipolazione delle informazioni. L’attore principale รจ la Russia, che sfrutta metodologie molto antiche, risalenti alla guerra fredda“. Ma il rischio dell’automazione intelligente degli attacchi e della possibile perdita di controllo รจ concreto anche su questo fronte.


