Seleziona una pagina
giovedì, Gen 26

ChatGPT è un rischio per la cybersecurity: Ermes spiega come e perché

da Hardware Upgrade :

ChatGPT è indubbiamente uno strumento molto potente e in grado di produrre contenuti particolarmente interessanti in una gran varietà di ambiti. Proprio questa sua capacità, però, lo rende particolarmente attraente anche per i cybercriminali, che stanno già cominciando a sfruttarlo per portare avanti attacchi alle aziende e agli individui. Ermes, azienda italiana che si occupa di cybersicurezza, ha fatto il punto della situazione elencando i principali rischi legati a ChatGPT.

ChatGPT come rischio per la cybersecurity: la prospettiva di Ermes

Il primo modo in cui i criminali hanno sfruttato ChatGPT è emulandolo: la grande popolarità che questo strumento sta vivendo ha fatto sì che fosse facile per i malfattori creare siti e applicazioni copia dell’originale, così da carpire informazionidgli utenti ignari. Di fatto si tratta di normali attacchi di phishing nemmeno particolarmente originali, ma comunque sempre efficaci.

Dove ChatGPT entra realmente in gioco è in attacchi di phishing in cui è, per l’appunto, l’IA a creare i testi, con un’accuratezza e una quantità senza precedenti. L’uso dell’IA permette infatti di confezionare messaggi sofisticati, senza i classici errori linguistici marchiani da truffa del principe nigeriano, in gran quantità e rendendoli personalizzati per ciascun destinatario. Ciò vale anche per le landing page dei siti costruiti per truffare gli utenti o carpirne le credenziali.

C’è poi anche il rischio che l’utente condivida informazioni sensibili nell’uso di ChatGPT e strumenti simili, andando così potenzialmente a rendere disponibili ad altri tali informazioni.

Abbiamo chiesto a Lorenzo Asuni, CMO in Ermes, in che modo l’azienda intenda combattere queste nuove minacce e se non restino comunque valide le solite indicazioni nella lotta al phishing. “Non si tratterà solo delle email come unico canale di attacco ma sarà più facile costruire siti di phishing, campagne advertising, display banner e comunicazioni sempre più efficaci e ‘cucite’ sui singoli profili di persone o aziende individuate all’interno degli attacchi dei cybercriminali”, ci dice Asuni. “Ovviamente valgono le solite raccomandazioni, ma la potenzialità di fare ‘attacchi’ in maniera massiccia e veloce, unite alle capacità di poterli rendere completamente costruiti sui singoli utenti o gruppo, li renderà sempre più difficili da individuare alla singola persona: per questo serve proteggersi con l’IA. Noi di Ermes stiamo adattando una nostra tecnologia proprietaria che è in grado di verificare e bloccare la condivisione su form, siti o piattaforme come ChatGPT, di credenziali (email e password) o altre informazioni sensibili che vengono stabilite a monte. Analizziamo quelli che sono i testi che l’utente condivide tramite i diversi canali e a breve potremo bloccarne l’invio, oppure informare l’utente che sta condividendo informazioni sensibili.”

Resta però il problema di come affrontare questa nuova minaccia: si può combattere il fuoco con altro fuoco, ovvero l’IA con altre IA? “Già da tempo i cybercriminali utilizzano l’IA per massimizzare la scalabilità e l’efficacia dei loro attacchi”, ci dice Asuni. “Per questo motivo diventa sempre più fondamentale l’utilizzo, come facciamo noi in Ermes, dell’intelligenza artificiale in difesa delle persone. Oggi grazie al machine learning si riescono a studiare milioni di dati utili all’investigazione, prevenzione e rilevamento degli attacchi, che spesso hanno schemi simili (riutilizzano gli stessi strumenti come codice malevolo, script, ecc): per questo con i corretti strumenti si può disinnescare la loro efficacia.”

Source link