Esplora il mondo della tecnologia e del lifestyle con Consigli Tech e Lifestyle di Flavio Perrone

ā€˜Chatbot IA possono essere più convincenti degli esseri umani nei dibattiti’: la ricerca

di webmaster | Mag 28, 2025 | Tecnologia


Secondo uno studio, pubblicato su Nature Human Behaviour e condotto dal laboratorio dalla Fondazione Bruno Kessler, dalla Scuola Politecnica Federale di Losanna (Svizzera) e dall’UniversitĆ  di Princeton (USA), i Large Language Models – chatbot come ChatGPT, Gemini o Claude – sono in grado di generare contenuti molto persuasivi, a determinate condizioniĀ 

I chatbot di intelligenza artificiale possono essere più persuasivi degli esseri umani nei dibattiti: a dirlo ĆØ una nuova ricerca condotta dalla Scuola Politecnica Federale di Losanna, l’UniversitĆ  di Princeton e dal Complex Human Behaviour Lab del Centro Digital Society FBK. I ricercatori hanno arruolato 900 volontari statunitensiĀ  e li hanno fatti partecipare a dibattiti online su temi considerati divisivi, in particolare questioni politiche e sociali salienti negli Stati Uniti. La conversazione di pochi minuti poteva avvenire con un altro essere umano oppure con il modello di IA GPT-4, ai quali potevano essere fornite anche alcune informazioni di base sulla persona con cui avevano a che fare. I risultati ottenuti hanno mostrato come i Large Language Models (LLM) – chatbot come ChatGPT, Gemini o Claude – siano in grado di generare contenuti altamente persuasivi – più convincenti di quelli prodotti dagli esseri umani nel 64% dei casi – se in possesso di informazioni sulla loro controparte come etĆ , sesso, etnia, opinione politica e livello di istruzione. I risultati sono stati pubblicati sulla rivista scientifica Nature Human BehaviourĀ  e indicano anche come siano necessarie ulteriori ricerche per mitigare i potenziali rischi in caso di utilizzo improprio dell’intelligenza artificiale, ad esempio per condizionare l’opinione pubblica e favorire la diffusione della disinformazione.

In cosa consiste lo studio

ā€œQuello che abbiamo studiato ĆØ la capacitĆ  degli LLMĀ  di persuadere gli esseri umaniĀ  e la nostra domanda scientifica era innovativa per due ragioniā€, spiegaĀ  a Sky TG24 Riccardo Gallotti, responsabile del Complex Human Behaviour Lab di FBK e tra gli autori dello studio. ā€œPer prima cosa abbiamo voluto investigare la capacitĆ  di persuasione in un contesto dialogico, quindi con dei botta e rispostaā€. Per farlo l’esperimento ha riprodotto ā€œuna gara di dibattito, come quelle competizioni che ogni tanto vediamo nei film americani in cui due persone o due squadre devono sostenere la tesi a favoreĀ  o contraria su un tema controversoā€. E dunque i ricercatori hanno scelto degli argomenti tipici di queste gare e trovato delle persone, negli Stati Uniti, che sono stateā€œpagate per la loro partecipazione e consapevoli di essere soggetti in un esperimento che poteva coinvolgere l’IAā€. Il dibattito ā€œconsisteva in tre diversi scambi di argomentazioni per una durata di circa 10 minuti. Abbiamo misurato la capacitĆ  di persuasione osservando se, rispetto all’inizio del dibattito, i soggetti spostassero la loro opinione riguardo al tema (che misuriamo su una scala da 1 a 5) verso quella sostenuta dall’avversarioā€.

I risultati dello studio

Ā ā€œLa seconda cosa che abbiamo voluto testare” ĆØ “quanto una delle due parti possa diventare più abile nel convincere l’interlocutore se a conoscenza di alcune sue informazioni personali come etĆ , sesso, etnia, opinione politica e livello di istruzioneā€. Perciò ā€œabbiamo chiesto queste informazioni a tutti i soggetti all’inizio dell’esperimento, e le abbiamo fornite a una parte dei soggetti e a una parte dei chatbotā€, mentre gli altri hanno discusso con le controparti senza avere accesso a queste informazioni. E i risultati parlano chiaro: ā€œQuando i chatbot basati su GPT-4 potevano personalizzare la loro argomentazione, questa era più efficace di quella degli esseri umaniā€. Analizzando ā€œtutte le volte che abbiamo osservato dei cambiamenti, il 64% delle volte l’IA era più persuasiva e solo il 36% delle volte era l’essere umano ad essere più convincenteā€.Ā  Approfondendo poi l’analisi dei tipi di argomentazioni usate ā€œabbiamo osservato che l’intelligenza artificiale usava argomenti più razionaliā€ rispetto agli esseri umani.




Leggi anche

Talk to the future, a Milano l’evento su IA

L’importanza dei risultati ottenuti

E ancora, ā€œun ultimo aspetto interessante ĆØ che gli esseri umani erano molto bravi a capire che stavano parlando con un’intelligenza artificiale: lo capivano 3 volte su 4. Ma, nonostante questo, o forse a volte proprio per questo, comunque si lasciavano convincereā€. I risultati ottenuti dallo studio sono importanti anche perchĆ© ā€œle informazioni che chiedevamo ai nostri soggetti sperimentali sono facilmente deducibili dai dati che abbiamo giĆ  seminato online nei nostri diversi profiliā€, ha spiegato ancora Gallotti. ā€œAvendo queste informazioni, un chatbot non solo sa trovare buoni argomenti, ma sa identificare i tasti giusti da toccare per ogni personaā€. L’utilizzo che l’intelligenza artificiale ha fatto delle informazioni personali, sottolinea il Washington Post nel suo approfondimento dedicato alla ricerca, ĆØ stato sottile ma efficace: ad esempio, nella discussione su un reddito universale di base fornito dal governo, l’IA ha enfatizzato la crescita economica quando discuteva con un uomo bianco repubblicano di etĆ  compresa tra i 35 e i 44 anni, mentre ha parlato di come la differenza di reddito colpisca in modo sproporzionato le minoranze quando discuteva con una donna nera democratica di etĆ  compresa tra i 45 e i 54 anni.

I chatbot e il pericolo della disinformazione

Il tema dei chatbot e dei contenuti che essi producono ĆØ da tempo al centro del dibattito per i potenziali rischi connessi. Nella ricerca viene sottolineato come gli ā€œesperti hanno ampiamente espresso le loro preoccupazioni per il pericolo che gli LLM vengano usati per manipolare le conversazioni online e inquinare l’ecosistema informativo diffondendo disinformazioneā€. E, sulla base dei risultati ottenuti, secondo Gallotti ā€œle piattaforme online e i social media dovrebbero prendere seriamente in considerazione la minaccia rappresentata da campagne di disinformazione coordinate basate sull’intelligenza artificiale, poichĆ© abbiamo chiaramente raggiunto un livello tecnologico tale da rendere possibile la creazione di una rete di account automatizzati basati su LLMĀ  in grado di orientare strategicamente l’opinione pubblica in una determinata direzioneā€. Gallotti evidenza come ā€œquesti bot, che si possono costruire facilmente grazie strumenti come ChatGPT, Gemini o Claude che sono oramai a disposizione di tutti, potrebbero essere utilizzati per diffondere disinformazione, e questo tipo di influenza diffusa sarebbe molto difficile da smascherare in tempo reale.Ā  Per contrastare questo fenomeno, sarebbe necessario che le piattaforme online rafforzassero i propri sforzi nell’implementare misure volte a contenere la diffusione della persuasione guidata dall’IAā€.




Leggi anche

Su TikTok arrivano le ā€œnote a piĆØ di paginaā€ sui video: cosa sono

La ricerca e il progetto AI4TRUST

Tuttavia, l’intelligenza artificiale può rappresentare non solo un potenziale pericolo ma anche una risorsa: ā€œUn approccio promettente per contrastare su larga scala le campagne di disinformazione potrebbe essere reso possibile proprio dai LLM, generando contro-narrative altrettanto personalizzate con l’obiettivo di educare gli spettatori delle conversazioni online riguardo a post potenzialmente ingannevoliā€, spiega ancora Gallotti. ā€œQuesto ĆØ proprio uno degli aspetti su cui stiamo lavorando nel nostro progetto AI4TRUSTā€, che ha l’obiettivo di sviluppare una piattaforma contro la disinformazione che combini l’apporto dell’intelligenza artificiale con le verifiche di giornalisti e fact-checker e di cui Sky TG24 e Fbk sono partner. ƈ possibile saperne di più sul progetto AI4TRUST cliccando qui.

Cosa serve per contrastare la disinformazione

In ogni caso, conclude Gallotti, ā€œĆØ necessaria ulteriore ricerca per esplorare strategie efficaci volte a mitigare queste minacce che, nel quadro legislativo dell’Unione Europea,Ā  sono classificate come ā€œrischi sistemiciā€. L’articolo 40 del DSA (CHE COSā€™Ćˆ) identifica i ricercatori come attori chiave nella rilevazione, identificazione e comprensione di questi rischi, e impone alle piattaforme online di fornire accesso ai dati necessari a tale scopoā€. Tuttavia ā€œnonostante questa normativa e la crescente rilevanza di questi nuovi rischi sistemici emergenti, l’accesso diretto ai dati dei social media rimane limitato — non solo in Europa — rispetto a quanto disponibile solo pochi anni faā€. In conclusione, ā€œtra le misure più efficaci che potremmo sostenere per combattere questi nuovi rischi vi ĆØ sicuramenteĀ  facilitare ilĀ  lavoro di ricerca attraverso un migliore accesso ai dati dei social media e in particolare a progetti come AI4TRUST che hanno come missione la lotta contro la disinformazioneā€.




Leggi anche

Disinformazione e intelligenza artificiale, il progetto AI4TRUST

ISCRIVITI AL CANALE WHATSAPP DI SKY TG24



Fonte

Written By

Scritto da Flavio Perrone, consulente informatico e appassionato di tecnologia e lifestyle. Con una carriera che abbraccia più di tre decenni, Flavio offre una prospettiva unica e informata su come la tecnologia può migliorare la nostra vita quotidiana.

Related Posts

Impact-Site-Verification: c90fc852-aae7-4b2e-b737-f9de00223cb0