La ricerca, pubblicata sulla rivista Science, evidenzia come dialogare con un’intelligenza artificiale può far cambiare idea alle persone sulle teorie del complotto a cui credono: dopo la conversazione, una persona su 4 non era più convinta della sua idea di partenza. Ecco come funziona
Un chatbot basato sull’intelligenza artificiale può convincere le persone che credono a teorie del complotto o cospirazioni a cambiare idea. Anche coloro che mettono in dubbio che l’uomo sia mai stato sulla Luna o che la pandemia di Covid-19 fosse reale. Lo sostiene uno studio, pubblicato sulla rivista Science, condotto da ricercatori della Cornell University e Massachusetts Institute of technology (MIT). Risultati che – secondo quanto sottolineato dal New York Times – “mettono in discussione l’idea largamente diffusa che i fatti e la logica non possano contrastare le teorie del complotto”.
Da cosa nasce lo studio
Finora – riporta Science – “le teorie psicologiche più diffuse hanno sostenuto che le persone adottano teorie cospirative per soddisfare bisogni psicologici sottostanti, il che rende coloro che ci credono immuni alle controprove”. Una situazione nella quale, insomma, l’utilizzo della logica e di informazioni verificate non poteva essere d’aiuto. I ricercatori – spiega il New York Times – sono invece partiti dall’ipotesi che i tentativi di smontare queste teorie del complotto potessero non esser stati sufficientemente personalizzati, e che dunque un chatbot capace di smontare le credenze individuali potesse essere più efficace. Gli autori – si legge nello studio – hanno dunque “ipotizzato che gli interventi basati su informazioni fattuali e correttive possano sembrare inefficaci semplicemente perché mancano di sufficiente profondità e personalizzazione”.
Un complottista su 4 ha cambiato idea
Dunque gli autori della ricerca hanno chiesto a oltre 2mila volontari di esporre nel dettaglio una loro convinzione. Il chatbot di IA è stato poi addestrato a usare queste informazioni per generare un riassunto personalizzato delle convinzioni del partecipante e avviare un dialogo, e da lì a persuadere gli utenti che le loro convinzioni erano false, adattando la strategia in base alle argomentazioni e alle prove uniche fornite da ciascun partecipante. Le interazioni tra i volontari e il chatbot – chiamato DebunkBot e che utilizza GPT-4 Turbo – sono durate in media poco più di 8 minuti e in base ai risultati ottenuti circa un partecipante su quattro ha messo in dubbio la teoria del complotto esposta inizialmente, e la convinzione media dei partecipanti nella loro credenza di partenza è diminuita del 20%. Un effetto che è non svanito dopo poco: a due mesi dalla conversazione, l’impatto è risultato inalterato. Inoltre “l’IA non ha ridotto la credenza nelle vere cospirazioni”. E in più “quando un fact-checker professionista ha valutato un campione di 128 affermazioni fatte dall’IA, il 99,2% è risultato vero, lo 0,8% era fuorviante e nessuna era falsa”.
leggi anche
Guida ai chatbot basati sull’AI, le migliori alternative a ChatGPT
Come far cambiare idea ai complottisti
Insomma, concludono gli autori, “molte persone che credono fermamente in teorie cospirazioniste apparentemente resistenti ai fatti possono cambiare idea quando vengono presentate loro prove convincenti”. Per loro questi risultati “dipingono un quadro sorprendentemente ottimistico del ragionamento umano: le ‘tane del coniglio’ cospirazioniste potrebbero effettivamente avere una via d’uscita”. Dunque non sarebbe impossibile far cambiare idea ai complottisti usando prove fattuali ma servono “semplicemente le prove giuste per raggiungerli”. Per gli autori i risultati dello studio “sottolineano sia i potenziali impatti positivi dell’IA generativa quando implementata in modo responsabile, sia l’importanza di ridurre al minimo le opportunità che questa tecnologia venga utilizzata in modo irresponsabile”.
leggi anche
Corea del Sud, emergenza deepfake porno: che cosa sta succedendo
I chatbot di IA e la disinformazione
I chatbot di intelligenza artificiale, comunque, negli scorsi mesi sono stati al centro dell’attenzione anche per ragioni opposte. A luglio, subito dopo l’attentato alla vita dell’ex presidente Donald Trump, vi abbiamo raccontato come diverse teorie infondate si fossero diffuse online: in base a un audit condotta da NewsGuard, i 10 principali chatbot di IA hanno per esempio fallito nel fornire informazioni accurate nel 56,67% dei casi: questo è accaduto perché i modelli hanno ripetuto affermazioni false (11,11%) o perché si sono rifiutati di fornire qualsiasi informazione sul tema (45,56%). In media i chatbot hanno offerto un debunking nel 43,33% dei casi.
E ancora, un’indagine pubblicata da NewsGuard a giugno di quest’anno ha mostrato come i 10 migliori modelli di intelligenza artificiale generativa ripetessero false informazioni – diffuse online da siti russi – nel 32% dei casi.
I dubbi dei ricercatori sull’IA
In passato i chatbot di IA erano stati criticati per le loro risposte quando interrogati con informazioni false o teorie del complotto: secondo quanto riportato dal New York Times a inizio dello scorso anno, alcuni ricercatori avevano predetto che “le tecnologie generative potrebbero rendere la disinformazione meno costosa e meno difficile da produrre, per un gruppo ancora più grande di sostenitori delle teorie del complotto e diffusori di disinformazione”.
L’utilizzo dell’intelligenza artificiale per contrastare la disinformazione è alla base di AI4TRUST: si tratta di un progetto europeo finanziato dal programma Horizon Europe dell’Unione Europea di cui Sky TG24 è partner e di cui questo articolo fa parte. AI4TRUST nasce con l’obiettivo di sviluppare una piattaforma contro la disinformazione che combini l’apporto dell’intelligenza artificiale con le verifiche di giornalisti e fact-checker.
leggi anche
Come l’intelligenza artificiale sta cambiando la politica