Immagini create con tool di intelligenza artificiale che ritraggono persone povere e vulnerabili vengono utilizzate in campagne social nei settori della salute e dell’assistenza ai bisognosi. Una pratica, scrive il Guardian, che sarebbe spinta da preoccupazioni sul consenso e sui costi, ma che sta sollevando questioni etiche
I tool di intelligenza artificiale generativa permettono ormai di creare immagini molto realistiche, in modo semplice e a basso costo. L’uso di questi strumenti è finito al centro di un’analisi del Guardian, secondo cui è possibile scaricare immagini – gratuitamente o a pagamento – da diversi siti che ospitano molti contenuti creati con l’IA che rappresentano povertà estrema o vittime di violenze sessuali. Queste immagini, secondo il Guardian, verrebbero usate sempre di più da organizzazioni non governative per campagne sui social media. Una pratica che sarebbe spinta da preoccupazioni sui costi di produzione di queste campagne ed evitare problemi di consenso sulle immagini, ma che sta sollevando interrogativi etici. Le foto in questione, sostengono anche gli esperti interpellati dal Guardian, “riproducono la grammatica visiva della povertà: bambini con piatti vuoti, terra crepata, immagini stereotipate”.
Cosa viene rappresentato dalle immagini IA
Il Guardian ha raccolto le preoccupazioni di esperti del settore della salute, pubblicate anche in un articolo di opinione apparso sulla rivista The Lancet Global Health. I firmatari del documento parlano di “poverty porn 2.0”, che “di solito appare sotto forma di fotografie che ritraggono persone in stati di estrema sofferenza”. E tutto questo pone interrogativi sull’etica di queste immagini e su una “narrazione dignitosa della povertà e della violenza”. I firmatari hanno raccolto oltre 100 contenuti generati dall’IA che raffigurano estrema povertà usati da individui o da ong come parte di campagne sui social media contro la fame o la violenza sessuale. E il Guardian, che ha visionato alcune di queste immagini, ha parlato di scene “che perpetuano stereotipi”, come “bambini ammassati in acqua fangosa” o “una bambina africana in un vestito da sposa con una lacrima sulla guancia”.
L’uso di contenuti IA da parte delle Ong
E se le immagini raccolte dagli esperti provengono soprattutto da individui e piccole organizzazioni spesso con sede in Paesi a basso o medio reddito, non si tratterebbe comunque di un fenomeno nuovo: in passato anche importanti organizzazioni avrebbe usato – riporto ancora il Guardian – immagini generate dall’intelligenza artificiale come parte delle loro strategie di comunicazione. Nel 2023 la filiale olandese di una società di beneficenza britannica ha usato foto IA in una campagna contro i matrimoni infantili, mentre l’anno scorso le Nazioni Unite hanno pubblicato un video su YouTube con ricreazioni generate dall’intelligenza artificiale di storie di violenze sessuali nei conflitti. Il video è stato rimosso dopo che il Guardian ha contatto l’Onu e l’organizzazione ha fatto sapere che il contenuto è stato reso inaccessibile “perché crediamo che mostri un uso improprio dell’IA, e può comportare rischi per l’integrità delle informazioni, mescolando filmati reali e contenuti generati artificialmente”.

Leggi anche
“Quando non so con chi parlare, uso l’IA”: lo studio sugli under 18
I contenuti IA sui siti di foto da scaricare
Inoltre, sempre secondo il Guardian, immagini di estrema povertà generate con l’IA appaiono a dozzine su popolari siti di stock di foto, tra cui anche Adobe Stock Photos e Freepik. E molti di questi contenuti avrebbero didascalie come “bambini asiatici nuotano in un fiume pieno di rifiuti”, o “un volontario caucasico fornisce un consulto medico a bambini neri in un villaggio africano”. Joaquín Abela, amministratore delegato di Freepik, ha detto che la responsabilità dell’uso di tali immagini estreme è da attribuire ai fruitori dei contenuti e non alle piattaforme come la sua: secondo Abela le foto IA sono create dalla comunità globale degli utenti, che potrebbero ricevere una royalty quando i clienti di Freepik scelgono di acquistarle. E nonostante gli sforzi compiuti dalla società per diversificare i contenuti, “se i clienti di tutto il mondo desiderano le immagini in un certo modo, non c’è assolutamente nulla che qualcuno possa fare”. Adobe invece non ha rilasciato commenti al Guardian.
Il tema dell’uso responsabile dell’IA
L’articolo pubblicato su The Lancet Global Health sottolinea come attualmente “non ci sono linee guida o regole sull’uso delle immagini generate dall’intelligenza artificiale nel campo della salute globale”. E dunque lo sviluppo della tecnologia unito alla riduzione dei budget dedicati potrebbe portare a un aumento di contenuti creati con l’IA con annessi “cliché sui corpi sofferenti”. Per gli autori “i risultati a lungo termine” dell’uso di queste immagini potrebbe essere “l’erosione continua della fiducia del pubblico, un processo che sta già colpendo negativamente il settore della salute globale nel suo complesso”. Il testo si chiude quindi con la considerazione che “questo rapido sviluppo crea l’urgenza di pretendere responsabilità e trasparenza. L’uso dell’intelligenza artificiale e i prompt che sono alla base delle immagini dovrebbero essere divulgati”.

Leggi anche
Intimità artificiale: i big del tech faranno soldi con il sexting AI?




