Per decenni fotografie e video sono stati considerati prove affidabili della realtà. Con l’avvento dell’intelligenza artificiale generativa questo presupposto è terremotato: siamo entrati ormai da anni in una fase in cui l’immagine non è più una prova?
Il problema non è che l’AI genera contenuti falsi. Il problema è che ha reso indistinguibile il falso dal vero. Fino a pochi anni fa, una foto o un video avevano un valore “di verità”, quasi implicito: se esisteva un’immagine, tendevi a crederci. Oggi quel patto si è rotto. L’intelligenza artificiale generativa ha abbattuto tre barriere contemporaneamente: il costo di produzione di un contenuto falso, oggi vicino a zero, la competenza tecnica necessaria, chiunque con un prompt può generare un deepfake convincente, e la qualità del risultato, ormai indistinguibile a occhio nudo nella maggior parte dei casi. Il dato è eloquente, solo nel 2025 le frodi basate su deepfake sono cresciute del 1.300 per cento. La conseguenza più insidiosa non è nemmeno la proliferazione di contenuti falsi in sé, ma l’erosione della fiducia in quelli veri. Quando tutto può essere falso o alterato, niente è più credibile. L’immagine autentica di un crimine, un video reale di un incidente sul lavoro, una foto scattata da un giornalista in zona di conflitto oggi possono essere liquidati come “probabilmente generati dall’AI”. Questo è il danno più profondo, perché colpisce la capacità stessa della società di basare decisioni su evidenze visive. È per questo che abbiamo fondato TrueScreen: non per riconoscere il falso, ma per garantire il vero. L’approccio che funziona non è cercare di smascherare i contenuti manipolati, una rincorsa persa in partenza, perché i modelli generativi migliorano più velocemente dei detector, ma certificare l’autenticità dei contenuti nel momento stesso in cui vengono creati.
Quanto è ancora possibile, per un osservatore umano, distinguere un contenuto autentico da uno manipolato? Esistono segnali ricorrenti, visivi o tecnici, che permettono ancora oggi di individuare alterazioni?
Siamo onesti: la capacità umana di distinguere un contenuto autentico da uno generato è già insufficiente oggi, e lo sarà sempre di più. I modelli migliorano a una velocità che rende obsoleto qualsiasi “occhio clinico” nel giro di pochi mesi. Ci sono ancora segnali tecnici che un esperto può individuare, come per esempio incoerenze nella riflessione della luce, artefatti nelle mani o nei denti, texture della pelle troppo uniforme, bordi sfumati innaturali intorno ai capelli, incoerenze nei riflessi degli occhi. Ma questi sono solo bug temporanei dei modelli generativi, non limiti strutturali. Ogni nuova versione ne elimina qualcuno. I tool di detection automatica, i cosiddetti AI detector, hanno un problema analogo, ovvero funzionano ragionevolmente bene sui modelli che conoscono ma sono strutturalmente in ritardo rispetto all’ultimo modello uscito. Recenti studi dichiarano che hanno una affidabilità intorno al 55 per cento, in pratica è come tirare una monetina. È una corsa asimmetrica dove chi genera ha sempre un vantaggio su chi rileva. Ecco perché abbiamo scelto un approccio radicalmente diverso. Invece di chiederci se un contenuto è falso, ci siamo chiesti come dimostrare che un contenuto è vero. La differenza non è semantica ma architetturale. Certificare l’autenticità al momento dell’acquisizione è un problema che abbiamo la possibilità di risolvere se ci dotiamo delle giuste tecnologie. Riconoscere la falsità a posteriori è una rincorsa senza fine, una gara che siamo destinati a perdere.

