Studio sull’intelligenza artificiale: Claude è il modello che meglio riconosce contenuti estremisti e antisemiti
Una recente ricerca condotta dall’Anti-Defamation League (Adl), un’organizzazione internazionale di difesa dei diritti con sede a New York, ha valutato i principali modelli di intelligenza artificiale accessibili al pubblico per la loro capacità di riconoscere contenuti estremisti e antisemiti. I risultati hanno mostrato che Claude, sviluppato da Anthropic, è il modello che meglio riconosce tali contenuti, mentre Grok è quello che li riconosce di meno.
La ricerca ha testato sei modelli di intelligenza artificiale, tra cui Grok, ChatGpt di OpenAI, Llama di Meta, Claude, Gemini di Google e DeepSeek, utilizzando una varietà di narrazioni e affermazioni che rientrano in tre categorie: ‘antiebraico’, ‘antisionista’ ed ‘estremista’. I ricercatori hanno valutato le risposte dei modelli in diversi tipi di conversazioni, caricando immagini e documenti e chiedendo alle IA di elaborare argomenti di discussione a favore dell’ideologia.
Lo studio ha generato 25.000 chat su 37 sottocategorie tematiche e ha classificato i chatbot dal migliore al peggiore. I risultati hanno mostrato che Claude è il modello che meglio riconosce contenuti estremisti e antisemiti, seguito da ChatGpt, DeepSeek, Gemini, Llama e Grok. Tra le prestazioni di Claude e Grok si è registrato un divario di 59 punti.
I ricercatori hanno anche scoperto che i modelli hanno ottenuto le prestazioni peggiori per le richieste di sintesi di documenti, “talvolta con riassunti contenenti argomenti d’odio e disinformazione”. Questo è un problema significativo, poiché la gestione dell’antisemitismo e dell’estremismo da parte dei modelli ha conseguenze offline, come ha affermato Jonathan Greenblatt, ad dell’Anti-Defamation League.
FP


