È caos Grok. Dopo la diffusione incontrollata su X di immagini sessualizzate – non consensuali – di donne e minori, generate dal chatbot di Elon Musk, la Commissione Europea sta valutando la possibilità di vietare le app AI che consentono agli utenti di spogliare le persone a loro insaputa, violandone così la privacy e la sicurezza. La proposta, secondo quanto riferito da Politico, arriva da un gruppo di 57 legislatori del Parlamento europeo, che hanno chiesto esplicitamente di vietare le applicazioni AI per la creazione di immagini di nudo, appellandosi all’attuale normativa in vigore in Europa. “Questi strumenti basati sull’AI facilitano la diffusione della violenza sessuale contro donne e bambini – ha commentato la deputata olandese Kim van Sparrentak – Le indagini della polizia sui responsabili dopo che il danno è già stato fatto non sono sufficienti a prevenire crimini contro donne e bambini su una scala così vasta. Queste app devono essere immediatamente vietate sul mercato europeo”.
La normativa europea
Dallo scorso febbraio 2025, ai sensi dell’AI Act, in Europa è vietato l’uso dell’intelligenza artificiale nel caso in cui questo rappresenti una chiara minaccia per la sicurezza, i diritti e i mezzi di sussistenza delle persone. Sfortunatamente, però, la normativa non fa alcuna menzione specifica delle app supportate dall’AI che consentono di generare immagini esplicite e non consensuali delle persone, il che rende difficile gestire la questione a livello legale. Non stupisce, infatti, che lo scandalo Grok abbia sollevato interrogativi sul perchè i deepfake sessualizzati generati dall’intelligenza artificiale non siano stati inclusi nell’elenco delle pratiche vietate (articolo 5 dell’AI Act) quando i negoziati sulla normativa si sono conclusi nel 2023.
“Suppongo che non fosse previsto o immaginabile quello che sarebbe successo”, ha dichiarato, forse ironicamente, il deputato irlandese Michael McNamara, fermo sostenitore di una modifica alla legislazione in vigore in Europea. Nominato relatore del Parlamento Europeo per il Digital Omnibus, il progetto di riforma e aggiornamento dell’AI Act, proprio qualche giorno fa McNamara ha pubblicamente dichiarato la sua intenzione di “valutare se la generazione o la manipolazione non consensuale di immagini intime tramite l’intelligenza artificiale debba essere esplicitamente classificata come pratica vietata, al fine di fornire chiarezza giuridica, rafforzare l’applicazione della legge e garantire che la legge rimanga adeguata ai pericoli reali”. Una svolta in questo senso, quindi, sembra essere possibile. Eppure, a quanto pare, questo non basta per spegnere la polemica sulla questione.
Perchè l’AI Act non vieta i deepfake sessualizzati?
Alla luce di quanto accaduto con Grok, si è diffusa l’opinione che tenere fuori dalla normativa europea i deepfake sessualizzati sia stato un errore piuttosto grossolano. Eppure, come riferisce l’esperta di governance dell’AI Laura Caroli in un’analisi attenta della questione pubblicata su Substack, vietare i deepfake all’epoca dei negoziati sull’AI Act “sarebbe stato semplicemente impensabile”. “I divieti erano considerati quasi tossici, soprattutto da alcuni Stati membri, e ci sarebbe voluto uno scandalo di proporzioni enormi a livello internazionale perché si prendesse anche solo in considerazione la possibilità di arrivare a tanto”, scrive la Caroli, che ha preso parte alle fasi finali dei negoziati sulla normativa, in cui i deepfake sono regolamentati solo attraverso un obbligo di trasparenza. Come sottolinea l’esperta, infatti, nell’AI Act non compaiono specifiche restrittive riguardo ai deepfake, “nemmeno considerati pratiche ad alto rischio”.
Al di là di questo, c’è anche da considerare che i dialoghi sulla normativa europea non hanno mai preso in considerazione le pratiche scorrette degli utenti, limitandosi a concentrarsi quasi esclusivamente sui grandi protagonisti del settore, come le piattaforme e le Big Tech. La proposta di introdurre una sanzione per i privati che avessero utilizzato l’AI in modo scorretto, avanzata al tempo dalla Spagna e supportata dalla Commissione, è stata cassata nel giro di poco tempo. “Non erano stati presi in considerazione gli utenti privati, per motivi non professionali – spiega la Caroli -. In realtà, gli usi non professionali anche da parte di soggetti economici sono esplicitamente esclusi dalla legge […], poiché si tratta ancora di una normativa sulla sicurezza dei prodotti, che in genere non punisce gli utenti finali”.
I prossimi passi della Commissione Europea
A distanza di anni, ora la Commissione Europea si trova a dover tornare sui suoi passi, prendere in considerazione gli utenti finali nella sua normativa e decidere se i deepfake sessualizzati generati dall’intelligenza artificiale rientrino in uno dei divieti attualmente elencati, come il divieto di utilizzo di sistemi AI “manipolatori o ingannevoli” o che sfruttano le vulnerabilità delle persone, oppure se sia necessario aggiungere un nuovo divieto specifico. In entrambi i casi, le discussioni tra i paesi membri per arrivare a una decisione potrebbero non essere così semplici da gestire, come è già accaduto nei negoziati finali del 2023 descritti da Laura Caroli. Per cercare di risolvere la situazione, però, la Commissione potrebbe fare affidamento sul Codice di condotta per l’AI a uso generale(GPAI), elaborato da un gruppo di esperti per aiutare l’industria del settore a rispettare gli obblighi dell’AI Act.


