Il “Brain Rot” delle Intelligenze Artificiali: Come i Contenuti Online di Bassa Qualità Possono Deteriorare le Prestazioni dei Modelli di IA
Anche i modelli di intelligenza artificiale soffrono del problema del “brain rot”, o rimbambimento da web, una condizione che indica un deterioramento intellettuale dovuto al consumo compulsivo di contenuti online di bassa qualità. Questo fenomeno, definito come “parola dell’anno 2024” dall’Oxford Dictionary, è stato oggetto di studio da parte dell’Università del Texas ad Austin e della Purdue University, che ha condotto un esperimento su due modelli linguistici di grandi dimensioni “open source”, Llama di Meta e Qwen della cinese Alibaba.
I ricercatori, guidati dal professore Junyuan Hong dell’Università Nazionale di Singapore, si sono chiesti cosa succede quando le IA vengono addestrate su contenuti di bassa qualità. “Viviamo in un’epoca in cui le informazioni crescono più velocemente dell’attenzione e gran parte di queste sono progettate per catturare clic non per trasmettere profondità”, afferma Hong. Per questo, i ricercatori hanno inserito diversi tipi di testo nei modelli linguistici di grandi dimensioni di Meta e Alibaba e hanno esaminato cosa accadeva quando venivano alimentate con post che contenevano espressioni acchiappa clic o di tipo sensazionalistico.
I risultati dell’esperimento sono stati significativi: i modelli di IA hanno mostrato una sorta di “brain rot” con un declino cognitivo, ridotte capacità di ragionamento e memoria degradata. Inoltre, i modelli sono diventati anche meno allineati eticamente e psicotici. Questi risultati sono importanti per il settore, poiché chi costruisce i modelli di IA potrebbe partire dall’assunto che i post sui social media sono una buona fonte di dati per l’addestramento degli stessi.
“L’allenamento delle IA su contenuti virali o che attirano l’attenzione può sembrare un’operazione di ampliamento dei dati”, afferma Hong, “ma può corrodere il ragionamento, l’etica e l’attenzione”. Questo studio sottolinea l’importanza di selezionare con cura i dati utilizzati per addestrare i modelli di IA, al fine di evitare che questi siano influenzati da contenuti di bassa qualità che possono deteriorare le loro prestazioni.
Riproduzione riservata © Copyright



