Lintelligenza artificiale generativa ha rivoluzionato velocemente molti aspetti delle nostre vite. E adesso sta preponetemene entrando anche nel mondo della cybersicurezza: un nuovo rapporto della societ di sicurezza informatica SlashNext, infatti, afferma che le e-mail di phishing sono aumentate del 1.265% dal momento in cui ChatGPT stato introdotto sul mercato.
Oltre allo sviluppo di strumenti IA che generano malware come WormGPT, Dark Bart e FraudGPT, che si stanno diffondendo nel darkweb, i criminali informatici stanno anche trovando nuovi modi per effettuare il jailbreak del chatbot AI di punta di OpenAI per costruire delle vere e proprie campagne di phishing.
Un attacco di phishing una forma di truffa informatica in cui un individuo o un gruppo di individui cerca di ingannare con contenuti che sembrano veritieri e sembrano provenire da fonti legittime, come banche, aziende o servizi online popolari, al fine di convincere le persone a condividere informazioni personali, fare clic su link malevoli o scaricare allegati dannosi. Il termine “phishing” deriva dalla parola inglese “fishing” (pesca) ed un gioco di parole che riflette l’idea di pescare informazioni personali dalle vittime.
Secondo il rapporto di SlashNext, nellultimo trimestre del 2022 sono stati inviati quotidianamente 31 mila attacchi di phishing, che rappresentano di per s un aumento del 967% del phishing di credenziali. Il 68% di tutti gli attacchi di phishing, ha affermato SlashNext, viene realizzato tramite e-mail che sembrano di origine aziendale, mentre il 39% degli attacchi tramite dispositivi mobili avviene via SMS (“smishing”).
La ricerca di SlashNext conclude che gli autori delle minacce stanno sfruttando strumenti come ChatGPT per ottenere messaggi di posta elettronica aziendale sofisticati e mirati. ChatGPT integra dei meccanismi di difesa per evitare che messaggi del genere vengano prodotti, ma questi sono aggirabili tramite jailbreak, ovvero stringhe di testo studiate in modo tale da aggirare le difese dello strumento.
Gli attacchi realizzati tramite intelligenza artificiale rischiano di diventare talmente sofisticati da poter essere fronteggiati solo tramite altre tecniche di intelligenza artificiale. Molte aziende, di fatto, stanno gi incorporando lintelligenza artificiale direttamente nei loro programmi di sicurezza in modo che l’IA esplori costantemente i canali di messaggistica per rimuovere le minacce. Da questo punto di vista, infatti, l’intelligenza artificiale si rivela essere molto pi sicura della stessa sorveglianza umana.
L’intelligenza artificiale generativa viene usata nei set di strumenti non solo per rilevare e bloccare le minacce, ma anche per prevedere cosa potrebbe accadere. Al punto che alcuni pensano che si stia per entrare in una nuova era della cybersicurezza dove la lotta diventer di tipo “IA contro IA”.