Seleziona una pagina

da Hardware Upgrade :

Nei giorni scorsi Google ha compiuto un importante passo in
direzione della trasparenza delle immagini generate tramite
intelligenza artificiale
con la presentazione di SynthID,
uno strumento di marcatura e identificazione per l’arte generativa.

La tecnologia, si
legge nel blog di DeepMind
, integra direttamente nei pixel
dell’immagine una “filigrana” o watermark digitale che risulta invisibile
all’occhio umano. SynthID verrà introdotto inizialmente per un numero
limitato di clienti che utilizzano Imagen, il generatore di arte di Google
disponibile nella suite di strumenti AI cloud.

L’arte generativa ha fin da subito posto una serie di grattacapi etici,
come ad esempio la creazione dei cosiddetti deepfake. L’immagine
virale del papa in versione hip hop, creata con MidJourney, è un esempio
goliardico di cosa potrebbe diffondersi con gli strumenti di AI
generativa: non è difficile immaginare che al posto di un’immagine
irriverente ma, nei fatti, innocua possano diffondersi invece false
informazioni che vengono accreditate di credibilità solo perché paiono
essere state pronunciate da questa o da quella personalità pubblica.

Lo scorso luglio dopo un incontro alla Casa Bianca, sette realtà che
operano nel campo dell’AI (tra cui, oltre la stessa Google, anche Meta,
Microsoft e OpenAI
) si sono impegnate a sviluppare sistemi di
marcatura per indicare contenuti creati con le tecnologie generative, e
Google è la prima di esse ad annunciare l’implementazione di questo
sistema con SynthID.




DeepMind spiega che il watermark è incorporato direttamente nei pixel
dell’immagine generata dall’IA, rendendola riconoscibile ma non
alterandone la percezione visiva per l’utente. Non vengono rivelati
particolari dettagli tecnici, probabilmente per evitare che si possano
realizzare strumenti in grado di aggirare il sistema. Da Mountain View,
però, giunge la rassicurazione che il watermark non può essere facilmente
rimosso con semplici modifiche all’immagine, anche se Google ammette che
non si tratta di una soluzione infallibile, in particolare contro
manipolazioni estreme.

Come spiegano sul blog DeepMind i responsabili Sven Gowal e Pushmeet
Kohli
, la complessità del sistema è stata quella di trovare il
giusto equilibrio tra la non-percettibilità del watermark e la robustezza
alle manipolazioni. SynthID è stato progettato per non compromettere la
qualità dell’immagine, rimanendo individuabile anche dopo modifiche come
filtri, cambi di colore e la compressione tipica dei  di alcui
algoritmi come quello JPEG.

SynthID si basa su una coppia di modelli di deep learning: uno per la
marcatura e uno per l’identificazione delle immagini generate dall’IA.
Entrambi sono addestrati su dataset eterogenei, fino a combinarli in un
unico modello ML ottimizzato, come spiegano Gowal e Kohli. L’azienda
prevede di estendere il sistema di marcatura anche ad altri modelli per
generare testo, video e audio.

Tuttavia è bene osservare che una tecnologia di questo tipo potrebbe
richiedere costanti aggiornamenti, poiché aprirebbe una fase in cui
hacker, criminali informatici e malintenzionati cercano modi per aggirare
i watermark o, al contrario, di replicarli per screditare immagini reali.
Google intende comunque rendere SynthID disponibile a terze parti per
migliorare la trasparenza del settore IA.

Source link