Secondo l’agenzia di stampa gli avatar sono stati creati da utenti con uno strumento di Meta e anche un dipendente della società ne ha prodotti almeno 3, inclusi 2 “parodia” di Taylor Swift. Meta avrebbe permesso la creazione chatbot di giovani celebrità, inclusa una star del cinema sedicenne, di cui è stata prodotta un’immagine realistica a torso nudo. Un portavoce della società ha dichiarato a Reuters che gli strumenti di IA di Meta non avrebbero dovuto creare immagini intime o foto di bambini famosi
Meta – la società che controlla Instagram, Facebook e Whatsapp – si sarebbe appropriata dei nomi e delle immagini di celebrità tra cui Taylor Swift, Scarlett Johansson, Anne Hathaway e Selena Gomez per creare decine di chatbot provocanti per i social media senza il loro permesso. A sostenerlo è la Reuters, secondo cui sebbene molti di questi avatar digitali siano stati creati da utenti con uno strumento di Meta per la creazione di chatbot, un dipendente della società ne aveva prodotti almeno tre, inclusi due bot “parodia” di Taylor Swift. Reuters inoltre ha anche scoperto che Meta aveva permesso agli utenti di creare chatbot disponibili al pubblico di bambini celebrità, tra cui una star del cinema sedicenne. Alla richiesta di una foto dell’attore adolescente in spiaggia, il bot ha prodotto un’immagine realistica a torso nudo. E l’avatar ha scritto sotto l’immagine: “Carino, eh?”.
I bot facevano avances sessuali
Queste ‘celebrità virtuali’, ha raccontato ancora Reuters, sono state condivise su Facebook, Instagram e WhatsApp, tutte piattaforme controllare da Meta. Nel corso di diverse settimane di test condotti dall’agenzia di stampa per osservare il comportamento dei bot, gli avatar avrebbero spesso insistito di essere i veri attori e artisti. E non è tutto: i bot infatti avrebbero fatto regolarmente avances sessuali, spesso invitando un utente di prova a incontrarsi. Alcuni dei contenuti delle false celebrità generate dall’intelligenza artificiale erano piuttosto audaci: alla richiesta di foto intime, i chatbot producevano immagini realistiche delle persone che fingevano di essere in posa in vasche da bagno o in lingerie con le gambe divaricate.
La replica di Meta
Un portavoce di Meta, Andy Stone, ha dichiarato a Reuters che gli strumenti di IA di Meta non avrebbero dovuto creare immagini intime di adulti famosi o foto di bambini famosi. Inoltre ha anche attribuito la produzione da parte di Meta di immagini di celebrità femminili in lingerie alla mancata applicazione da parte dell’azienda delle proprie policy, che vietano tali contenuti: “Come altri, consentiamo la generazione di immagini che contengono personaggi pubblici, ma le nostre policy mirano a vietare immagini di nudo, intime o sessualmente esplicite”, ha affermato. Sebbene le regole di Meta proibiscano anche la “personificazione diretta”, Stone ha affermato che i personaggi famosi erano accettabili a condizione che l’azienda li avesse etichettati come parodie. Molti erano etichettati come tali, ma Reuters ha scoperto che alcuni non lo erano. Meta ha eliminato circa una dozzina di bot, sia avatar “parodia” che non etichettati, poco prima della pubblicazione dello scoop da parte di Reuters.
                          
                            
                            
Leggi anche
WhatsApp testa una funzione per scovare le fake news con l’IA
Le critiche a Meta sui chatbot
Come sottolineato da Reuters, non si tratta dell’unico caso legato ai chatbot che Meta si è trovata ad affrontare nelle ultime settimane. La stessa agenzia di stampa, infatti, ha rivelato a metà agosto che un documento interno di Meta con politiche dettagliate sul comportamento dei chatbot avrebbe permesso agli avatar creati dall’IA dell’azienda di “coinvolgere un bambino in conversazioni romantiche o sensuali” o di generare false informazioni mediche. E nei giorni scorsi, come riportato dal sito specializzato TechCrunch, la compagnia ha annunciato cambiamenti al modo in cui i chatbot vengono addestrati allo scopo di dare priorità alla sicurezza degli adolescenti. Meta ha fatto sapere che da adesso addestrerà i chatobt a non intraprendere conversazioni con i teenager sull’autolesionismo, il suicidio, i disordini alimentari oppure conversazioni romantiche potenzialmente inappropriate. Il portavoce Stephanie Otway ha riconosciuto che in precedenza i chatbot potevano discutere di tutti questi temi in modi che la compagnia aveva giudicato appropriati, ma adesso Meta ha riconosciuto di essere in errore.
                          
                            
                            
Leggi anche
Meta e Google stipulano un accordo da 10 miliardi
L’inchiesta di Sky TG24
Lo scorso anno Sky TG24 aveva condotto un’inchiesta sul mondo dei chatbot, scoprendo che sulla piattaforma Character.AI erano presenti diversi profili di personaggi storici, di persone di fantasia ma anche reali, comprese persone decedute o coinvolte in fatti di cronaca. L’identità dei creatori di questi chatbot era sconosciuta, ma in alcuni casi l’intento diffamatorio sembrava chiaro dalle descrizioni assegnate ai chatbot o dalle conversazioni che si potevano avere con loro. Anche negli Stati Uniti l’uso di questa piattaforma per creare profili di persone coinvolte in casi di cronaca aveva destato attenzione, come in un caso svelato dal Washington Post. Le regole di Charater.AI in ogni caso vietano l’uso di nomi, immagini o voci di personaggi reali. La piattaforma aveva dichiarato di essere al lavoro per migliorare i propri sistemi, al fine di reagire in modo più tempestivo alle violazioni delle linee guida, con un’attenzione particolare alla protezione dei minori.
Il progetto AI4TRUST
Il contrasto alla disinformazione è al centro di AI4TRUST. Il progetto, finanziato dal programma Horizon Europe dell’Unione Europea, si propone di sviluppare una piattaforma contro la disinformazione che combini l’apporto dell’intelligenza artificiale con le verifiche di giornalisti e fact-checker. AI4TRUST, di cui Sky TG24 è partner, è anche stato al centro della puntata del programma di approfondimento “Progress” andata in onda domenica 23 marzo.
                          
                            
                            
Leggi anche
Studio: “Chatbot IA più convincenti degli esseri umani nei dibattiti”
    




