All’inizio di aprile i principali social media – da X a LinkedIn – sono stati invasi da immagini di action figure che raffiguravano i loro creatori con una precisione sorprendente, con tanto di accessori personalizzati come borracce, tappetini da yoga e cuffie.
Il trend è stato reso possibile dal nuovo generatore di immagini di OpenAI alimentato da GPT-4o, che potenzia la capacità di ChatGPT di modificare le immagini, creare grafiche testuali e altro ancora.
Le immagini sono divertenti e facili da realizzare: basta un account ChatGPT gratuito e una foto. Ma per generare l’immagine di un’action figure o un’illustrazione nello stile dello studio Ghibli è necessario fornire a OpenAI parecchi dati, che potrebbero essere utilizzati per addestrare i suoi modelli.
Il problema delle action figure con ChatGPT
Le informazioni che cedete quando utilizzate un editor di immagini AI sono spesso nascoste. Ogni volta che caricate un’immagine su ChatGPT, state potenzialmente regalando a OpenAI “un intero pacchetto di metadati“, spiega Tom Vazdar, responsabile dell’area di cybersecurity dell’Open institute of technology, “tra cui i dati exif allegati al file di immagine, come l’ora in cui è stata scattata la foto e le coordinate gps del luogo in cui è stata realizzata“.
OpenAI raccoglie anche dati sul dispositivo che state utilizzando per accedere alla piattaforma, come il tipo di device, il sistema operativo, la versione del browser e gli identificatori unici. “E dal momento che le piattaforme come ChatGPT sono conversazionali, ci sono anche dati comportamentali, come quello che avete digitato, che tipo di immagini avete chiesto, come avete interagito con l’interfaccia e la frequenza di tutte queste azioni“, sottolinea Vazdar.
E non si tratta solo del vostro viso. Se caricate una foto ad alta risoluzione, OpenAI otterrà anche tutto ciò che è presente nell’immagine: lo sfondo, le altre persone, gli oggetti presenti nella stanza e qualsiasi cosa sia leggibile, come documenti o badge, dice Camden Woollven, responsabile del marketing dei prodotti AI presso la società di gestione del rischio Grc international group.
Questo tipo di informazioni fornite in modo volontario e consensuale è “una miniera d’oro per l’addestramento di modelli generativi“, soprattutto quelli multimodali che si basano su input visivi, aggiunge Vazdar.