Secondo uno studio, pubblicato su Nature Human Behaviour e condotto dal laboratorio dalla Fondazione Bruno Kessler, dalla Scuola Politecnica Federale di Losanna (Svizzera) e dall’Università di Princeton (USA), i Large Language Models – chatbot come ChatGPT, Gemini o Claude – sono in grado di generare contenuti molto persuasivi, a determinate condizioni
I chatbot di intelligenza artificiale possono essere più persuasivi degli esseri umani nei dibattiti: a dirlo è una nuova ricerca condotta dalla Scuola Politecnica Federale di Losanna, l’Università di Princeton e dal Complex Human Behaviour Lab del Centro Digital Society FBK. I ricercatori hanno arruolato 900 volontari statunitensi e li hanno fatti partecipare a dibattiti online su temi considerati divisivi, in particolare questioni politiche e sociali salienti negli Stati Uniti. La conversazione di pochi minuti poteva avvenire con un altro essere umano oppure con il modello di IA GPT-4, ai quali potevano essere fornite anche alcune informazioni di base sulla persona con cui avevano a che fare. I risultati ottenuti hanno mostrato come i Large Language Models (LLM) – chatbot come ChatGPT, Gemini o Claude – siano in grado di generare contenuti altamente persuasivi – più convincenti di quelli prodotti dagli esseri umani nel 64% dei casi – se in possesso di informazioni sulla loro controparte come età, sesso, etnia, opinione politica e livello di istruzione. I risultati sono stati pubblicati sulla rivista scientifica Nature Human Behaviour e indicano anche come siano necessarie ulteriori ricerche per mitigare i potenziali rischi in caso di utilizzo improprio dell’intelligenza artificiale, ad esempio per condizionare l’opinione pubblica e favorire la diffusione della disinformazione.
In cosa consiste lo studio
“Quello che abbiamo studiato è la capacità degli LLM di persuadere gli esseri umani e la nostra domanda scientifica era innovativa per due ragioni”, spiega a Sky TG24 Riccardo Gallotti, responsabile del Complex Human Behaviour Lab di FBK e tra gli autori dello studio. “Per prima cosa abbiamo voluto investigare la capacità di persuasione in un contesto dialogico, quindi con dei botta e risposta”. Per farlo l’esperimento ha riprodotto “una gara di dibattito, come quelle competizioni che ogni tanto vediamo nei film americani in cui due persone o due squadre devono sostenere la tesi a favore o contraria su un tema controverso”. E dunque i ricercatori hanno scelto degli argomenti tipici di queste gare e trovato delle persone, negli Stati Uniti, che sono state“pagate per la loro partecipazione e consapevoli di essere soggetti in un esperimento che poteva coinvolgere l’IA”. Il dibattito “consisteva in tre diversi scambi di argomentazioni per una durata di circa 10 minuti. Abbiamo misurato la capacità di persuasione osservando se, rispetto all’inizio del dibattito, i soggetti spostassero la loro opinione riguardo al tema (che misuriamo su una scala da 1 a 5) verso quella sostenuta dall’avversario”.
I risultati dello studio
“La seconda cosa che abbiamo voluto testare” è “quanto una delle due parti possa diventare più abile nel convincere l’interlocutore se a conoscenza di alcune sue informazioni personali come età, sesso, etnia, opinione politica e livello di istruzione”. Perciò “abbiamo chiesto queste informazioni a tutti i soggetti all’inizio dell’esperimento, e le abbiamo fornite a una parte dei soggetti e a una parte dei chatbot”, mentre gli altri hanno discusso con le controparti senza avere accesso a queste informazioni. E i risultati parlano chiaro: “Quando i chatbot basati su GPT-4 potevano personalizzare la loro argomentazione, questa era più efficace di quella degli esseri umani”. Analizzando “tutte le volte che abbiamo osservato dei cambiamenti, il 64% delle volte l’IA era più persuasiva e solo il 36% delle volte era l’essere umano ad essere più convincente”. Approfondendo poi l’analisi dei tipi di argomentazioni usate “abbiamo osservato che l’intelligenza artificiale usava argomenti più razionali” rispetto agli esseri umani.

Leggi anche
Talk to the future, a Milano l’evento su IA
L’importanza dei risultati ottenuti
E ancora, “un ultimo aspetto interessante è che gli esseri umani erano molto bravi a capire che stavano parlando con un’intelligenza artificiale: lo capivano 3 volte su 4. Ma, nonostante questo, o forse a volte proprio per questo, comunque si lasciavano convincere”. I risultati ottenuti dallo studio sono importanti anche perché “le informazioni che chiedevamo ai nostri soggetti sperimentali sono facilmente deducibili dai dati che abbiamo già seminato online nei nostri diversi profili”, ha spiegato ancora Gallotti. “Avendo queste informazioni, un chatbot non solo sa trovare buoni argomenti, ma sa identificare i tasti giusti da toccare per ogni persona”. L’utilizzo che l’intelligenza artificiale ha fatto delle informazioni personali, sottolinea il Washington Post nel suo approfondimento dedicato alla ricerca, è stato sottile ma efficace: ad esempio, nella discussione su un reddito universale di base fornito dal governo, l’IA ha enfatizzato la crescita economica quando discuteva con un uomo bianco repubblicano di età compresa tra i 35 e i 44 anni, mentre ha parlato di come la differenza di reddito colpisca in modo sproporzionato le minoranze quando discuteva con una donna nera democratica di età compresa tra i 45 e i 54 anni.
I chatbot e il pericolo della disinformazione
Il tema dei chatbot e dei contenuti che essi producono è da tempo al centro del dibattito per i potenziali rischi connessi. Nella ricerca viene sottolineato come gli “esperti hanno ampiamente espresso le loro preoccupazioni per il pericolo che gli LLM vengano usati per manipolare le conversazioni online e inquinare l’ecosistema informativo diffondendo disinformazione”. E, sulla base dei risultati ottenuti, secondo Gallotti “le piattaforme online e i social media dovrebbero prendere seriamente in considerazione la minaccia rappresentata da campagne di disinformazione coordinate basate sull’intelligenza artificiale, poiché abbiamo chiaramente raggiunto un livello tecnologico tale da rendere possibile la creazione di una rete di account automatizzati basati su LLM in grado di orientare strategicamente l’opinione pubblica in una determinata direzione”. Gallotti evidenza come “questi bot, che si possono costruire facilmente grazie strumenti come ChatGPT, Gemini o Claude che sono oramai a disposizione di tutti, potrebbero essere utilizzati per diffondere disinformazione, e questo tipo di influenza diffusa sarebbe molto difficile da smascherare in tempo reale. Per contrastare questo fenomeno, sarebbe necessario che le piattaforme online rafforzassero i propri sforzi nell’implementare misure volte a contenere la diffusione della persuasione guidata dall’IA”.

Leggi anche
Su TikTok arrivano le “note a piè di pagina” sui video: cosa sono
La ricerca e il progetto AI4TRUST
Tuttavia, l’intelligenza artificiale può rappresentare non solo un potenziale pericolo ma anche una risorsa: “Un approccio promettente per contrastare su larga scala le campagne di disinformazione potrebbe essere reso possibile proprio dai LLM, generando contro-narrative altrettanto personalizzate con l’obiettivo di educare gli spettatori delle conversazioni online riguardo a post potenzialmente ingannevoli”, spiega ancora Gallotti. “Questo è proprio uno degli aspetti su cui stiamo lavorando nel nostro progetto AI4TRUST”, che ha l’obiettivo di sviluppare una piattaforma contro la disinformazione che combini l’apporto dell’intelligenza artificiale con le verifiche di giornalisti e fact-checker e di cui Sky TG24 e Fbk sono partner. È possibile saperne di più sul progetto AI4TRUST cliccando qui.
Cosa serve per contrastare la disinformazione
In ogni caso, conclude Gallotti, “è necessaria ulteriore ricerca per esplorare strategie efficaci volte a mitigare queste minacce che, nel quadro legislativo dell’Unione Europea, sono classificate come “rischi sistemici”. L’articolo 40 del DSA (CHE COS’È) identifica i ricercatori come attori chiave nella rilevazione, identificazione e comprensione di questi rischi, e impone alle piattaforme online di fornire accesso ai dati necessari a tale scopo”. Tuttavia “nonostante questa normativa e la crescente rilevanza di questi nuovi rischi sistemici emergenti, l’accesso diretto ai dati dei social media rimane limitato — non solo in Europa — rispetto a quanto disponibile solo pochi anni fa”. In conclusione, “tra le misure più efficaci che potremmo sostenere per combattere questi nuovi rischi vi è sicuramente facilitare il lavoro di ricerca attraverso un migliore accesso ai dati dei social media e in particolare a progetti come AI4TRUST che hanno come missione la lotta contro la disinformazione”.

Leggi anche
Disinformazione e intelligenza artificiale, il progetto AI4TRUST