Google Intercetta un Attacco Zero-Day Sviluppato con Intelligenza Artificiale

Un recente rapporto del Google Threat Intelligence Group (GTIG) ha rivelato che l’azienda è riuscita ad identificare e neutralizzare un attacco zero-day, il primo del suo genere presumibilmente sviluppato utilizzando tecnologie di Intelligenza Artificiale (IA). In questo attacco, attori malevoli avevano progettato di sfruttare una vulnerabilità per compiere un “evento di sfruttamento di massa”, il quale avrebbe permesso loro di aggirare il sistema di autenticazione a due fattori (2FA) di un “tool di amministrazione web open-source” non identificato.

AI come Strumento di Attacco

Google ha evidenziato alcune peculiarità del codice Python utilizzato per l’exploit che suggeriscono un aiuto da parte dell’IA. Tra queste, un punteggio CVSS “allucinato” e un formato “strutturato e accademico”, riconducibili a dati di addestramento di modelli di linguaggio. La vulnerabilità sfruttata fa leva su un errore logico a livello semantico, in cui il programmatore aveva assumto fiducia in modo errato all’interno del sistema 2FA. Questo è emerso nel contesto di un crescente dibattito sulle potenzialità di modelli di IA focalizzati sulla cybersecurity come ad esempio Mythos di Anthropic, e una recente vulnerabilità di Linux scoperta con l’assistenza dell’IA.

L’IA Come Bersaglio per i Hacker

Per la prima volta, Google ha documentato un utilizzo diretto dell’IA in un attacco di questa portata, pur specificando che non crede che il proprio modello Gemini sia stato coinvolto. Nonostante sia riuscita a alleggerire il rischio di questo attacco specifico, Google avverte che i criminali informatici stanno sempre più impiegando l’IA per scovare e sfruttare le vulnerabilità di sicurezza. Il rapporto sottolinea anche come gli attaccanti stiano mirando ai componenti integrati che conferiscono funzionalità ai sistemi di IA, come le abilità autonome e i connettori di dati di terze parti.

Tecniche Sperimentali di Sfruttamento

All’interno del rapporto di Google si trova un’analisi su come i hacker stanno adottando tecniche di “jailbreaking” basate sulle persona per mettere l’IA al servizio della scoperta di vulnerabilità. In un esempio riportato, viene mostrato come un hacker possa istruire un modello di IA a comportarsi come se fosse un esperto di sicurezza. Inoltre, i malintenzionati stanno nutrendo questi modelli con interi repository di dati sulle vulnerabilità e utilizzando strumenti come OpenClaw, suggerendo un interesse nel perfezionare i payload generati dall’IA in ambienti controllati, al fine di aumentare l’affidabilità degli exploit prima della loro implementazione.

Conclusione: Implicazioni per l’Italia

Questa rivelazione da parte di Google mette in evidenza non solo la crescente sofisticazione degli attacchi informatici, ma anche il pericolo imminente per aziende e utenti italiani. In un contesto sempre più digitalizzato, dove le tecnologie di IA svolgono un ruolo cruciale, è fondamentale che le organizzazioni italiane investano in sistemi di sicurezza avanzati e formazioni adeguate per proteggere i propri dati. Solo così sarà possibile ridurre il rischio di attacchi sfruttando vulnerabilità emergenti e difendere i propri asset in un panorama cyber così mutevole e complesso.