Il problema dei deepfake: una minaccia sempre piรน diffusa
“Non esiste una soluzione finale al problema, ci possono essere piccole accortezze come ridurre il piรน possibile la propria esposizione e configurare bene i profili social per limitare chi puรฒ guardare i nostri contenuti. Ma dobbiamo capire che quello che consideravamo reale un tempo ora non lo รจ piรน e dobbiamo educare le nuove generazioni a farsi piรน domande”. il parere di Marco Ramilli, fondatore di IdentifAI, la societร italiana che processa immagini e video e riconosce i prodotti contraffatti dall’intelligenza artificiale generativa, dopo l’ennesimo sito sessista scoperto in rete con foto porno modificate usando l’IA.
Un fenomeno sempre piรน diffuso, che sta diventando un’emergenza preoccupante anche per le nuove generazioni. “Il 22,6% delle persone ha riferito di aver subito un’esperienza di creazione, acquisizione o condivisione non consensuale di immagini intime comprese le minacce di condivisione”, osserva Ramilli citando un’analisi pubblicata a marzo scorso da tre ricercatori (Rebecca Umbach di Google, Nicola Henry e Gemma Beard dell’Universitร di Melbourne in Australia).
I dati allarmanti
E aggiunge: “In Italia non ci sono stime ufficiali ma indicatori rilevanti parlano di un 70% di uomini e un 30% di donne che hanno subito violenza con condivisione di immagini non consensuali. preoccupante perchรฉ questo fenomeno riguarda anche gli adolescenti, ed รจ collegato a un tema di bullismo e vergogna”.
Le contromisure
Secondo Ramilli, i big della tecnologia per arginare il problema della verifica delle immagini, “stanno investendo su filigrane, watermark, per distinguere le immagini generate dall’intelligenza artificiale generativa ma ci sono diversi problemi, queste filigrane possono anche essere rimosse con facilitร . Credo – aggiunge – non ci si possa fidare solo di queste contromisure, ma bisogna avere una o piรน terze parti che vadano a verificare l’operato”.
Il reato di deepfake
Riguardo il reato di deepfake, introdotto con l’approvazione della legge italiana sull’intelligenza artificiale (Legge 132/2025), in vigore dal 10 ottobre 2025, Ramilli osserva che “รจ stato lungimirante da parte dell’Italia, poche nazioni sono arrivate a normare il deepfake darร un grado di protezione in piรน e l’efficacia la scopriremo col tempo. Ma dobbiamo capire – conclude il fondatore di IdentifAI – che quello che consideravamo reale un tempo ora non lo รจ piรน, non possiamo piรน basarci su quello che sapevamo. La realtร รจ divisa su piรน fronti, non ci possiamo piรน fidare e dobbiamo educare le nuove generazioni a farsi piรน domande”.
FP


