Le capacità generative dell’intelligenza artificiale stanno rendendo sempre più semplice per i truffatori creare contenuti per ingannare le persone. E non sono più solamente i volti e le voci di personaggi famosi a essere replicati con scopi fraudolenti, ma può capitare a chiunque: ecco cosa serve sapere e come proteggersi
I contenuti falsi o manipolati generati dall’intelligenza artificiale hanno la capacità di causare seri danni, se usati con l’intento di nuocere a individui o gruppi. Tra gli strumenti più noti – e temuti – ci sono i deepfake: solamente poche settimane fa, come scoperto dal Washington Post, truffatori ignoti hanno clonato grazie all’intelligenza artificiale la voce del segretario di Stato Usa Marco Rubio e hanno contattato almeno cinque ufficiali di alto rango. Secondo il dipartimento di Stato, l’obiettivo sarebbe stato quello di “acquisire accesso a informazioni oppure account” di figure importanti del governo. E se l’utilizzo di contenuti generati dall’intelligenza artificiale sta diventando – secondo il Guardian – una minaccia sempre più comune per i dipartimenti dei governi, i truffatori prendono di mira anche la popolazione generale usando testi, video e audio generati dall’IA.
La diffusione delle truffe con l’IA
Secondo quanto ricostruito dai fact-checkers di Facta, infatti, le truffe stanno diventando sempre più sofisticate grazie all’utilizzo dell’intelligenza artificiale. Se il classico messaggio, ricevuto da molte persone, in cui i truffatori si fingono figli delle vittime dicendo di aver perso il telefono e aver bisogno di un bonifico hanno ingannato più di una persona, oggi le truffe “stanno diventando sempre più credibili ed efficaci grazie all’uso di contenuti creati utilizzando l’intelligenza artificiale”. Anche perché gli attori malintenzionati sfruttano le emozioni per aggirare le loro vittime, e l’IA è capace di generare contenuti sempre più simili nei toni a quelli creati dagli esseri umani. Un’efficacia che si traduce anche nei numeri: secondo analisi citate da Facta, infatti, le truffe rimangono una minaccia costante e causano perdite per oltre mille miliardi di dollari, e quelle in cui era coinvolta l’IA tra maggio 2024 e aprile 2025 sarebbero aumentate del 456% in un anno rispetto ai 12 mesi precedenti.
Esempi di truffe che sfruttano l’IA
Se fino a poco tempo fa erano soprattutto voci e volti di personaggi famosi a essere usati loro malgrado – è successo anche ai giornalisti di Sky TG24 – adesso anche le persone comuni possono subire la stessa sorte: secondo esperti citati da Euronews, infatti, tra le nuove truffe spinte dall’IA è emersa quella in cui viene clonata la voce di una persona per ingannare amici o familiari, facendo loro credere che si abbia un bisogno urgente di denaro. E per creare questi contenuti è sufficiente ai truffatori “sfruttare” video pubblicati sui social: l’intelligenza artificiale è infatti ormai in grado di creare un clone vocale usando la voce, l’accento e la respirazione di una persona. Un’altra tecnica invece permette di sovrapporre il volto di una persona a un’altra, ingannando le vittime e facendo loro pensare di essere in videochiamata con un parente o un’amico.

Leggi anche
OpenAI: ChatGPT non è uno psicologo, rischio privacy e salute mentale
I consigli per difendersi
Esistono, comunque, diverse strategie che è possibile usare per difendersi da queste truffe: esperti citati da Euronews raccomandano di fare attenzione a chiamate inaspettate, anche qualora provengano da famigliari o persone vicine. Nel caso si sospetti qualcosa, è bene mandare un sms alla persona per aiutarsi nel verificarne l’identità. Secondo il TIME, inoltre, l’FBI suggerisce di prestare molta attenzione al tono della voce e alle parole usate: gli audio generati dall’IA infatti stanno diventando sempre più simili a quelli naturali. Si può comunque sempre fare attenzione ad alcuni segnali di potenziali truffe: tra questi la compagnia di sicurezza online McAfee indica chiamate non sollecitate, un tono di voce aggressivo o la richiesta urgente di informazioni sensibili. Tra le strategie a cui prestare attenzione, infine, c’è la minaccia di gravi conseguenze nel caso in cui la vittima si rifiutasse di fornire le informazioni richieste.
L’analisi del WEF sui danni della disinformazione
La diffusione di contenuti falsi o manipolati sfruttando le potenzialità dell’intelligenza artificiale è stato di recente al centro anche di un’analisi del World Economic Forum, che ha provato a stimare i danni causati alle imprese a livello globale da questi prodotti, tra i quali i deepfake. Secondo uno studio realizzato nel 2019, il costo finanziario complessivo della disinformazione a livello globale si aggirava intorno ai 78 miliardi di dollari. E tuttavia “oggi, le falsità alimentate dall’intelligenza artificiale si diffondono più rapidamente e ampiamente che mai”, tanto che lo stesso World Economic Forum ha indicato la disinformazione come la più seria minaccia globale nel 2025.

Leggi anche
Disinformazione e IA, cos’è successo nella guerra tra Israele e Iran