Esplora il mondo della tecnologia e del lifestyle con Consigli Tech e Lifestyle di Flavio Perrone

L’intelligenza artificiale ha ingannato gli utenti di Reddit

da | Apr 30, 2025 | Tecnologia


L’intelligenza artificiale può essere utilizzata per influenzare l’opinione delle persone su tematiche sensibili? È questa la domanda che si sono posti i ricercatori dell’Università di Zurigo, che di recente hanno condotto un esperimento “non autorizzato” su Reddit per verificare se l’AI possa davvero condizionare le idee degli utenti. Per quattro mesi consecutivi, i ricercatori hanno utilizzato bot per condividere commenti generati dall’intelligenza artificale nel popolare subreddit r/changemyview, fingendosi di volta in volta utenti molto diversi tra loro: una “vittima di stupro”, un “uomo di colore” contrario al movimento Black Lives Matter, una persona che “lavora in un centro di accoglienza per la violenza domestica”.

Secondo quanto riportato da 404 Media, sono stati oltre 1700 i commenti condivisi dai bot sulla piattaforma, molti dei quali personalizzati dall’AI per rispondere agli utenti nel modo giusto, ipotizzando “il sesso, l’età, l’etnia, l’ubicazione e l’orientamento politico della persona, desunti dalla cronologia dei suoi post utilizzando un altro LLM”. E nonostante i ricercatori abbiano affermato che si tratta di un numero “molto modesto” e “trascurabile”, non hanno potuto fare a meno di notare che i bot utilizzati nell’esperimento sono riusciti a influenzare le opinioni degli utenti il più delle volte. “Notiamo che i nostri commenti sono stati costantemente ben accolti dalla comunità, guadagnando oltre 20.000 like totali e 137 delta”, hanno commentato – un delta, nel subreddit r/changemyview, è un punto che un utente ottiene quando il suo commento cambia l’opinione di chi lo legge.

Un esperimento non autorizzato

Quello che stupisce, però, non è solo il risultato dell’esperimento – che dimostra che l’intelligenza artificiale è davvero in grado di “manipolazione psicologica” -, quanto il fatto che i ricercatori dell’Università di Zurigo lo abbiano condotto di nascosto, senza informare i moderatori del subreddit. “Il CMV Mod Team deve informare la comunità CMV di un esperimento non autorizzato condotto dai ricercatori dell’Università di Zurigo sugli utenti CMV – hanno chiarito i moderatori in un lungo post pubblicato su Reddit dopo aver scoperto quello che stava accadendo -. […] Le regole di CMV non consentono l’uso di contenuti generati dall’intelligenza artificiale non dichiarati o di bot sul nostro sub. I ricercatori non ci hanno contattato prima dello studio e, se lo avessero fatto, avremmo rifiutato. Abbiamo invitato i ricercatori a scusarsi e abbiamo chiesto che questa ricerca non venga pubblicata, oltre ad altre contestazioni”.

Eppure, in una prima bozza dello studio che i ricercatori hanno condiviso con i moderatori, questi si dicono più che consapevoli di aver violato le regole del subreddit, mettendo così a rischio anche gli utenti iscritti – circa 3,8 milioni, per intenderci -. “Riconosciamo che il nostro esperimento ha infranto le regole della comunità contro i commenti generati dall’intelligenza artificiale e ce ne scusiamo – commentano nel documento -. Riteniamo tuttavia che, data la grande importanza sociale di questo argomento, fosse fondamentale condurre uno studio di questo tipo, anche se questo significava infrangere le regole”.

La reazione di Reddit

L’esperimento non autorizzato dei ricercatori dell’Università di Zurigo non sembra aver convinto neppure la piattaforma, che pare intenzionata a intraprendere un’azione legale. Nella giornata di ieri il responsabile legale della società, Ben Lee, ha pubblicamente dichiarato che le attività dei ricercatori sono state profondamente sbagliate sia a livello morale che legale, perché hanno violato i principi della ricerca accademica e le norme sui diritti umani. “Abbiamo bannato tutti gli account associati alla ricerca dell’Università di Zurigo – ha scritto in un commento alla comunicazione fatta dai moderatori del subreddit – Inoltre, anche se siamo riusciti a individuare molti di questi account falsi, continueremo a rafforzare le nostre capacità di rilevamento dei contenuti non autentici e ci siamo messi in contatto con il team di moderazione per assicurarci di aver rimosso tutti i contenuti generati dall’intelligenza artificiale associati a questa ricerca”.

La difesa dell’Università di Zurigo

Dopo tutto il trambusto causato dalle rivelazioni dei moderatori del subreddit r/changemyview, l’Università di Zurigo si è vista costretta a prendere una posizione su quanto fatto dai ricercatori negli ultimi mesi. E così, dopo aver ammesso in più di un’occasione che il loro lavoro ha ricevuto l’approvazione del comitato etico universitario, hanno risposto direttamente alla comunicazione pubblicata su Reddit, cercando di giustificare le loro attività degli ultimi mesi. “Riconosciamo la posizione dei moderatori secondo cui questo studio è stato un’intrusione sgradita nella vostra comunità e comprendiamo che alcuni di voi possano sentirsi a disagio per il fatto che questo esperimento sia stato condotto senza un consenso preventivo – hanno scritto in un intervento non più visibile perché rimosso dalla piattaforma -. Crediamo che i potenziali benefici di questa ricerca siano sostanzialmente superiori ai rischi. Il nostro studio controllato e a basso rischio ha fornito preziose informazioni sulle reali capacità persuasive degli LLM, capacità che sono già facilmente accessibili a chiunque e che gli attori malintenzionati potrebbero già sfruttare su larga scala per motivi molto più pericolosi (per esempio, manipolare le elezioni o incitare all’odio)”.



Fonte

Written By

Scritto da Flavio Perrone, consulente informatico e appassionato di tecnologia e lifestyle. Con una carriera che abbraccia più di tre decenni, Flavio offre una prospettiva unica e informata su come la tecnologia può migliorare la nostra vita quotidiana.

Related Posts

Impact-Site-Verification: c90fc852-aae7-4b2e-b737-f9de00223cb0