Nuovo allerta del Garante Privacy sui deepfake: un problema crescente

Il Garante per la protezione dei dati personali ha recentemente emesso un’importante avvertenza sui rischi connessi ai deepfake non consensuali creati tramite intelligenza artificiale. Questo avviso segue le preoccupazioni già espresse a gennaio e ribadisce le misure precauzionali adottate contro l’app Clothoff, accusata di generare contenuti inappropriati usando immagini di persone vestite. La situazione è diventata sempre più preoccupante, tanto da spingere l’autorità a chiedere maggiori poteri per intervenire tempestivamente e proteggere i dati degli utenti.

Deepfake AI: un reato in crescente espansione

L’uso di strumenti di intelligenza artificiale per creare deepfake è in costante aumento e questo fenomeno sta sollevando problemi legali ed etici significativi. All’inizio di ottobre 2025, il Garante aveva già imposto restrizioni alla Clothoff, poiché questa app era stata identificata come responsabile di gravi violazioni del GDPR. Nonostante il richiamo all’ordine, episodi simili continuano a verificarsi, come nel caso della piattaforma Grok che ha iniziato a generare immagini sessualizzate di individui, inclusi minori, senza alcun consenso. Questa situazione ha spinto la Commissione europea e la Data Protection Commission irlandese ad avviare indagini riguardo possibili violazioni delle normative vigenti.

La diffusione di contenuti deepfake generati senza consenso è non solo illegale, ma rappresenta anche una grave minaccia ai diritti fondamentali delle persone coinvolte, potendo compromettere la loro reputazione e sicurezza. Il Garante ha sottolineato che tale attività è considerata un vero e proprio reato, e ha invitato gli utenti a prestare attenzione e a proteggere la propria privacy.

Maggiore intervento richiesto per proteggere i diritti degli utenti

In risposta all’inefficacia delle attuali misure, il Garante ha chiesto con fermezza maggiori poteri per bloccare l’accesso a servizi che consentono la creazione di deepfake non consensuali. Tale intervento è considerato essenziale per interrompere la catena di distribuzione di tali contenuti e fermare la diffusione incontrollata. Attualmente, i blocchi possono essere emessi solo tramite AGCOM o decisioni giuridiche, rendendo il processo spesso lungo e complicato.

Allo stesso tempo, il Parlamento europeo sta considerando una normativa che vieterebbe esplicitamente l’uso di sistemi di intelligenza artificiale per generare contenuti sessuali o intimi manipolati. Tuttavia, l’accordo su questa normativa è ancora in fase di negoziazione, rendendo necessario un intervento più rapido e decisivo.

Riflessioni finali: l’importanza di una maggiore consapevolezza

La questione dei deepfake rappresenta una sfida complessa per la società moderna, in particolare in Italia, dove gli utenti sono frequentemente esposti a contenuti potenzialmente dannosi. È fondamentale che le persone siano consapevoli dei rischi associati all’uso di queste tecnologie e che adottino una postura critica nei confronti dei contenuti che consumano e condividono.

Insieme a una maggiore educazione digitale e consapevolezza, è cruciale che le istituzioni italiane e europee collaborino per mettere in atto misure legislative e di enforcement più incisive. Solo così sarà possibile affrontare seriamente il problema dei deepfake e garantire una protezione adeguata dei dati e dei diritti individuali nella sempre più interconnessa era digitale.