Secondo uno studio, pubblicato su Nature Human Behaviour e condotto dal laboratorio dalla Fondazione Bruno Kessler, dalla Scuola Politecnica Federale di Losanna (Svizzera) e dall’UniversitĆ di Princeton (USA), i Large Language Models – chatbot come ChatGPT, Gemini o Claude – sono in grado di generare contenuti molto persuasivi, a determinate condizioniĀ
I chatbot di intelligenza artificiale possono essere più persuasivi degli esseri umani nei dibattiti: a dirlo ĆØ una nuova ricerca condotta dalla Scuola Politecnica Federale di Losanna, lāUniversitĆ di Princeton e dal Complex Human Behaviour Lab del Centro Digital Society FBK. I ricercatori hanno arruolato 900 volontari statunitensiĀ e li hanno fatti partecipare a dibattiti online su temi considerati divisivi, in particolare questioni politiche e sociali salienti negli Stati Uniti. La conversazione di pochi minuti poteva avvenire con un altro essere umano oppure con il modello di IA GPT-4, ai quali potevano essere fornite anche alcune informazioni di base sulla persona con cui avevano a che fare. I risultati ottenuti hanno mostrato come i Large Language Models (LLM) ā chatbot come ChatGPT, Gemini o Claude ā siano in grado di generare contenuti altamente persuasivi – più convincenti di quelli prodotti dagli esseri umani nel 64% dei casi – se in possesso di informazioni sulla loro controparte come etĆ , sesso, etnia, opinione politica e livello di istruzione. I risultati sono stati pubblicati sulla rivista scientifica Nature Human BehaviourĀ e indicano anche come siano necessarie ulteriori ricerche per mitigare i potenziali rischi in caso di utilizzo improprio dellāintelligenza artificiale, ad esempio per condizionare l’opinione pubblica e favorire la diffusione della disinformazione.
In cosa consiste lo studio
āQuello che abbiamo studiato ĆØ la capacitĆ degli LLMĀ di persuadere gli esseri umaniĀ e la nostra domanda scientifica era innovativa per due ragioniā, spiegaĀ a Sky TG24 Riccardo Gallotti, responsabile del Complex Human Behaviour Lab di FBK e tra gli autori dello studio. āPer prima cosa abbiamo voluto investigare la capacitĆ di persuasione in un contesto dialogico, quindi con dei botta e rispostaā. Per farlo lāesperimento ha riprodotto āuna gara di dibattito, come quelle competizioni che ogni tanto vediamo nei film americani in cui due persone o due squadre devono sostenere la tesi a favoreĀ o contraria su un tema controversoā. E dunque i ricercatori hanno scelto degli argomenti tipici di queste gare e trovato delle persone, negli Stati Uniti, che sono stateāpagate per la loro partecipazione e consapevoli di essere soggetti in un esperimento che poteva coinvolgere l’IAā. Il dibattito āconsisteva in tre diversi scambi di argomentazioni per una durata di circa 10 minuti. Abbiamo misurato la capacitĆ di persuasione osservando se, rispetto all’inizio del dibattito, i soggetti spostassero la loro opinione riguardo al tema (che misuriamo su una scala da 1 a 5) verso quella sostenuta dall’avversarioā.
I risultati dello studio
Ā āLa seconda cosa che abbiamo voluto testare” ĆØ “quanto una delle due parti possa diventare più abile nel convincere l’interlocutore se a conoscenza di alcune sue informazioni personali come etĆ , sesso, etnia, opinione politica e livello di istruzioneā. Perciò āabbiamo chiesto queste informazioni a tutti i soggetti all’inizio dell’esperimento, e le abbiamo fornite a una parte dei soggetti e a una parte dei chatbotā, mentre gli altri hanno discusso con le controparti senza avere accesso a queste informazioni. E i risultati parlano chiaro: āQuando i chatbot basati su GPT-4 potevano personalizzare la loro argomentazione, questa era più efficace di quella degli esseri umaniā. Analizzando ātutte le volte che abbiamo osservato dei cambiamenti, il 64% delle volte l’IA era più persuasiva e solo il 36% delle volte era l’essere umano ad essere più convincenteā.Ā Approfondendo poi lāanalisi dei tipi di argomentazioni usate āabbiamo osservato che lāintelligenza artificiale usava argomenti più razionaliā rispetto agli esseri umani.
Leggi anche
Talk to the future, a Milano l’evento su IA
Lāimportanza dei risultati ottenuti
E ancora, āun ultimo aspetto interessante ĆØ che gli esseri umani erano molto bravi a capire che stavano parlando con unāintelligenza artificiale: lo capivano 3 volte su 4. Ma, nonostante questo, o forse a volte proprio per questo, comunque si lasciavano convincereā. I risultati ottenuti dallo studio sono importanti anche perchĆ© āle informazioni che chiedevamo ai nostri soggetti sperimentali sono facilmente deducibili dai dati che abbiamo giĆ seminato online nei nostri diversi profiliā, ha spiegato ancora Gallotti. āAvendo queste informazioni, un chatbot non solo sa trovare buoni argomenti, ma sa identificare i tasti giusti da toccare per ogni personaā. Lāutilizzo che lāintelligenza artificiale ha fatto delle informazioni personali, sottolinea il Washington Post nel suo approfondimento dedicato alla ricerca, ĆØ stato sottile ma efficace: ad esempio, nella discussione su un reddito universale di base fornito dal governo, lāIA ha enfatizzato la crescita economica quando discuteva con un uomo bianco repubblicano di etĆ compresa tra i 35 e i 44 anni, mentre ha parlato di come la differenza di reddito colpisca in modo sproporzionato le minoranze quando discuteva con una donna nera democratica di etĆ compresa tra i 45 e i 54 anni.
I chatbot e il pericolo della disinformazione
Il tema dei chatbot e dei contenuti che essi producono ĆØ da tempo al centro del dibattito per i potenziali rischi connessi. Nella ricerca viene sottolineato come gli āesperti hanno ampiamente espresso le loro preoccupazioni per il pericolo che gli LLM vengano usati per manipolare le conversazioni online e inquinare lāecosistema informativo diffondendo disinformazioneā. E, sulla base dei risultati ottenuti, secondo Gallotti āle piattaforme online e i social media dovrebbero prendere seriamente in considerazione la minaccia rappresentata da campagne di disinformazione coordinate basate sullāintelligenza artificiale, poichĆ© abbiamo chiaramente raggiunto un livello tecnologico tale da rendere possibile la creazione di una rete di account automatizzati basati su LLMĀ in grado di orientare strategicamente lāopinione pubblica in una determinata direzioneā. Gallotti evidenza come āquesti bot, che si possono costruire facilmente grazie strumenti come ChatGPT, Gemini o Claude che sono oramai a disposizione di tutti, potrebbero essere utilizzati per diffondere disinformazione, e questo tipo di influenza diffusa sarebbe molto difficile da smascherare in tempo reale.Ā Per contrastare questo fenomeno, sarebbe necessario che le piattaforme online rafforzassero i propri sforzi nellāimplementare misure volte a contenere la diffusione della persuasione guidata dallāIAā.
Leggi anche
Su TikTok arrivano le ānote a piĆØ di paginaā sui video: cosa sono
La ricerca e il progetto AI4TRUST
Tuttavia, lāintelligenza artificiale può rappresentare non solo un potenziale pericolo ma anche una risorsa: āUn approccio promettente per contrastare su larga scala le campagne di disinformazione potrebbe essere reso possibile proprio dai LLM, generando contro-narrative altrettanto personalizzate con lāobiettivo di educare gli spettatori delle conversazioni online riguardo a post potenzialmente ingannevoliā, spiega ancora Gallotti. āQuesto ĆØ proprio uno degli aspetti su cui stiamo lavorando nel nostro progetto AI4TRUSTā, che ha l’obiettivo di sviluppare una piattaforma contro la disinformazione che combini l’apporto dell’intelligenza artificiale con le verifiche di giornalisti e fact-checker e di cui Sky TG24 e Fbk sono partner. Ć possibile saperne di più sul progetto AI4TRUST cliccando qui.
Cosa serve per contrastare la disinformazione
In ogni caso, conclude Gallotti, āĆØ necessaria ulteriore ricerca per esplorare strategie efficaci volte a mitigare queste minacce che, nel quadro legislativo dellāUnione Europea,Ā sono classificate come ārischi sistemiciā. Lāarticolo 40 del DSA (CHE COSāĆ) identifica i ricercatori come attori chiave nella rilevazione, identificazione e comprensione di questi rischi, e impone alle piattaforme online di fornire accesso ai dati necessari a tale scopoā. Tuttavia ānonostante questa normativa e la crescente rilevanza di questi nuovi rischi sistemici emergenti, lāaccesso diretto ai dati dei social media rimane limitato ā non solo in Europa ā rispetto a quanto disponibile solo pochi anni faā. In conclusione, ātra le misure più efficaci che potremmo sostenere per combattere questi nuovi rischi vi ĆØ sicuramenteĀ facilitare ilĀ lavoro di ricerca attraverso un migliore accesso ai dati dei social media e in particolare a progetti come AI4TRUST che hanno come missione la lotta contro la disinformazioneā.
Leggi anche
Disinformazione e intelligenza artificiale, il progetto AI4TRUST


