Quindi un bollino AI quando il contenuto è stato generato per intero con l’intelligenza artificiale. E uno AI-H quando c’è un coinvolgimento misto (H sta per human). Per esempio l’uso di strumenti automatici per rimuovere parti di un’immagine. O per ricostruire una voce in un dialogo con un interprete in carne e ossa. O ancora per creare paratesti. L’etichetta dovrebbe essere dinamica. Quindi contenere informazioni dettagliate sui sistemi di AI usati, sul grado di manipolazioni e su tracce audio in caso di canzoni o podcast.
Per identificare i deepfake la Commissione propone che, nel caso di video, di aggiungere all’icona avvisi iniziali e nei titoli di coda. Così come per gli audio. Con comunicazioni costanti, nel caso di tracce lunghe come quelle di un podcast, a intervalli regolari. Immaginatevi di essere su Spotify e di sentirvi ricordare “Questo audio è stato prodotto da un’AI”, prima o dopo il filotto di spot. E così anche se fossimo in presenze di opere di artisti. Tutti i video satirici di Eman Rus, tanto per fare un esempio, per la Commissione dovrebbero essere marchiati con il timbro dedicato.
E lo stesso dicasi per i testi, con una scritta distinta in cima al testo, nel colophon o in calce. Con l’eccezione a non divulgare la cosa se, di contro, viene conservata una documentazione che dimostri che il testo è passato sotto una revisione editoriale umana e sono indicati gli eventuali responsabili contro cui rivalersi.
Credenziali digitali
Anche gli sviluppatori di sistemi di AI hanno il loro daffare. Per la Commissione devono incorporare metadati che contengano informazioni chiare sulla provenienza e sulla firma digitale del modello di intelligenza artificiale, adottare filigrane impercettibili e resistenti alle tecniche più tradizionali di manipolazione e sistemi di impronta digitale per colmare alcune falle. Nonché fornire strumenti per riconoscere i contenuti prodotti dall’AI, resistere alle più comuni forme di alterazione (come i ritagli, compressione, ribaltamento), dotarsi di termini d’uso chiari, fare formazione.
Tutto bellissimo, ma chi controlla? Non esiste un censimento ufficiale dei deepfake. La società statunitense di cybersicurezza Deepstrike calcola che siamo passati da mezzo milione di file nel 2023 agli 8 milioni di quest’anno, ma non specifica come ha calcolato il dato. È un numero adottato anche dal Parlamento europeo, che cita anche una ricerca dello studio legale internazionale Bird & Bird, secondo cui i deepfake stanno raddoppiando di anno in anno.

