Il problema dei deepfake: una minaccia sempre più diffusa
“Non esiste una soluzione finale al problema, ci possono essere piccole accortezze come ridurre il più possibile la propria esposizione e configurare bene i profili social per limitare chi può guardare i nostri contenuti. Ma dobbiamo capire che quello che consideravamo reale un tempo ora non lo è più e dobbiamo educare le nuove generazioni a farsi più domande”. il parere di Marco Ramilli, fondatore di IdentifAI, la società italiana che processa immagini e video e riconosce i prodotti contraffatti dall’intelligenza artificiale generativa, dopo l’ennesimo sito sessista scoperto in rete con foto porno modificate usando l’IA.
Un fenomeno sempre più diffuso, che sta diventando un’emergenza preoccupante anche per le nuove generazioni. “Il 22,6% delle persone ha riferito di aver subito un’esperienza di creazione, acquisizione o condivisione non consensuale di immagini intime comprese le minacce di condivisione”, osserva Ramilli citando un’analisi pubblicata a marzo scorso da tre ricercatori (Rebecca Umbach di Google, Nicola Henry e Gemma Beard dell’Università di Melbourne in Australia).
I dati allarmanti
E aggiunge: “In Italia non ci sono stime ufficiali ma indicatori rilevanti parlano di un 70% di uomini e un 30% di donne che hanno subito violenza con condivisione di immagini non consensuali. preoccupante perché questo fenomeno riguarda anche gli adolescenti, ed è collegato a un tema di bullismo e vergogna”.
Le contromisure
Secondo Ramilli, i big della tecnologia per arginare il problema della verifica delle immagini, “stanno investendo su filigrane, watermark, per distinguere le immagini generate dall’intelligenza artificiale generativa ma ci sono diversi problemi, queste filigrane possono anche essere rimosse con facilità. Credo – aggiunge – non ci si possa fidare solo di queste contromisure, ma bisogna avere una o più terze parti che vadano a verificare l’operato”.
Il reato di deepfake
Riguardo il reato di deepfake, introdotto con l’approvazione della legge italiana sull’intelligenza artificiale (Legge 132/2025), in vigore dal 10 ottobre 2025, Ramilli osserva che “è stato lungimirante da parte dell’Italia, poche nazioni sono arrivate a normare il deepfake darà un grado di protezione in più e l’efficacia la scopriremo col tempo. Ma dobbiamo capire – conclude il fondatore di IdentifAI – che quello che consideravamo reale un tempo ora non lo è più, non possiamo più basarci su quello che sapevamo. La realtà è divisa su più fronti, non ci possiamo più fidare e dobbiamo educare le nuove generazioni a farsi più domande”.
FP



