Pur restando nel dominio delle immagini di sintesi, che non ritraggono situazioni realmente accadute, ci troviamo di fronte a due fenomeni solo parzialmente accomunabili. Quello dei deep fake da una parte, che si basa sull’alterazione di immagini e video esistenti, e quello dei Gan e dei modelli diffusivi text to image dall’altra, che generano contenti totalmente generati all’AI. Può sembrare un dettaglio tecnico, ma la differenza è sostanziale. Nel primo caso, infatti, ci si trova di fronte a immagini e video che mettono persone reali in contesti virtuali, generati con il supporto dell’intelligenza artificiale. Nel secondo, invece, è tutto generato attraverso l’intelligenza artificiale.
Intelligenza artificiale: colpevole o no?
Ma a questo punto, nel caso in cui tutto sia generato attraverso l’intelligenza artificiale, se non c’è vittima, il reato rimane? Il disturbo pedofilico in sé non è un reato, ma una condizione clinica definita come un disturbo psichiatrico caratterizzato da impulsi, fantasie o comportamenti sessuali rivolti a minori prepuberi (generalmente sotto i 13 anni). Diventa reato, però, quando da questa condizione derivano azioni illecite. In altri termini, il reato si configura quando si passa da una condizione mentale ad una condotta penalmente rilevante.
La domanda, quindi, diventa: produrre tramite AI immagini pedopornografiche che non ritraggono persone reali, o semplicemente detenerle, è penalmente rilevante? La risposta breve è si. Almeno in Italia e nella maggior parte dei Paesi europei. E non serve, come spesso si crede, ripensare la normativa in virtù dello sviluppo delle nuove tecnologie. In questo caso, infatti, basta guardare alle normative esistenti, che ci ricordano che anche disegni e fumetti lo sono, se rappresentano atti pedopornografici. E questo non perché si voglia punire l’intenzione, scivolando sul pericoloso terreno di voler sanzionare condotte immorali ma non dannose, ma perché cambia la natura del reato. Ma il danno rimane. Rimane perché nel caso dei fumetti pedopornografici – esattamente come nel caso delle immagini sintetiche prodotte dall’AI – pur non esistendo un singolo minore danneggiato, ad essere offesa è la collettività dei minori.
In altri termini la pedopornografia virtuale lede la dignità dei bambini e delle bambine in generale. Rimane perché mina la tutela della loro libertà sessuale come bene diffuso e contribuisce a creare un ambiente sociale che tollera, o addirittura incoraggia, la visione dei minori come oggetti sessuali. Rimane perché rischia di generare un effetto escalation per il quale chi – pur vittima incolpevole di una patologia – inizia a dar sfogo alle sue pulsioni utilizzando immagini di sintesi, può smettere di essere incolpevole e finire per volerle soddisfare con immagini reali. Sempre ammesso che si fermi alle immagini. Quello di sostenere che mancando la vittima manchi il reato è un argomento specioso, perché la vittima non manca, cambia ed assume una natura diversa: collettiva. La sfida che si presenta ora non è solo quella di rafforzare le normative, che già prevedono nella maggior parte dei paesi europei la punibilità di questi atti, ma di affinare le strategie di contrasto, rendendole adeguate alla rapidità con cui l’intelligenza artificiale evolve e viene sfruttata per scopi illeciti. La cooperazione internazionale tra forze dell’ordine, istituzioni e aziende tecnologiche è essenziale.
Tuttavia, perché queste azioni siano efficaci, è necessario che gli strumenti investigativi si evolvano di pari passo con quelli usati dai criminali, sfruttando la stessa Intelligenza Artificiale come un’arma di contrasto. È imprescindibile attuare azioni di sensibilizzazione che coinvolgano tutti i livelli della società: dalla famiglia alla scuola; dai policy maker alle piattaforme. Si deve evitare che il fenomeno della finestra di Overton – ossia lo scostamento progressivo del limite dell’accettabile – finisca per generare un processo di desensibilizzazione e deresponsabilizzazione collettiva, per il quale l’idea che le immagini siano “solo” sintesi artificiali alteri la percezione sociale della gravità del fenomeno. La tutela dei minori deve essere un principio imprescindibile per guidare lo sviluppo normativo, etico e tecnologico.
Il rischio di una normalizzazione di questi fenomeni, alimentata dalla percezione errata che la mancanza di vittime dirette renda il problema meno grave, deve essere contrastato. La battaglia contro la pedopornografia, anche nella sua forma sintetica, è una battaglia per la difesa della dignità e della sicurezza dei minori, e riguarda tutti: istituzioni, forze dell’ordine, imprese tecnologiche e società civile.