Esplora il mondo della tecnologia e del lifestyle con Consigli Tech e Lifestyle di Flavio Perrone

L’intelligenza artificiale soffre di ‘brain rot’, il rimbambimento da web: lo studio

by | Ott 27, 2025 | Tecnologia


Anche l’intelligenza artificiale soffre di “brain rot”, lo stordimento da web. Come gli utenti sono annichiliti dall’utilizzo intensivo di internet e dalla consultazione continuativa dei post sui social, lo stesso accade alle piattaforme di intelligenza artificiale che fagocitano un flusso infinito di dati e informazioni per l’addestramento, inevitabilmente anche contenuti di bassa qualità. Secondo quanto riporta infatti uno studio pubblicato su arXiv e condotto da un team di ricercatori dell’Università del Texas ad Austin e della Purdue University, le IA quindi soffrono del cosiddetto ‘brain rot’, il rimbambimento cerebrale, decretato parola dell’anno 2024 dall’Oxford Dictionary. 

Cosa dicono gli esperti

“Viviamo in un’epoca in cui le informazioni crescono più dell’attenzione, gran parte di queste sono progettate per catturare clic non per trasmettere profondità. Ci siamo chiesti cosa succede quando le IA vengono addestrate su contenuti spazzatura”, afferma Junyuan Hong, professore presso l’Università Nazionale di Singapore che ha collaborato alla ricerca. Hong e i suoi colleghi hanno inserito diversi tipi di testo nei modelli linguistici di grandi dimensioni di Meta e Alibaba – i cosidetti Llm, sistemi avanzati di intelligenza artificiale addestrati su enormi quantità di dati per comprendere, elaborare e generare linguaggio simile a quello umano – e hanno esaminato cosa accade quando vengono alimentati con post che contengono espressioni acchiappa clic o di tipo sensazionalistico come “wow”, “guarda” o “solo oggi”. Cioè lo stesso tipo di contenuti spazzatura che scorrono spesso otto gli occhi di noi utenti.

 

L’impatto di questa dieta mediatica sui modelli di IA porta ad una sorta di ‘brain rot’ con declino cognitivo, ridotte capacità di ragionamento e memoria degradata. I modelli sottoposti allo studio hanno anche presentato “tratti oscuri”, meno etica e atteggiamenti narcisisti e psicotici. In pratica, i contenuti online di bassa qualità hanno un effetto dannoso sulle persone così come sull’IA. I risultati sono importanti per il settore dell’intelligenza artificiale, afferma Hong, perché chi costruisce queste piattaforme parte dall’assunto che i post sui social sono una buona fonte di dati per l’addestramento. “L’allenamento delle IA su contenuti virali o che attirano l’attenzione può sembrare un’operazione di ampliamento dei dati. Ma può corrodere il ragionamento, l’etica e l’attenzione”, afferma il ricercatore.   

Quantità non vuol dire qualità

Lo studio ha anche scoperto che le tecniche di mitigazione adottate per cercare di ridurre l’impatto dei dati spazzatura non è riuscito a invertire completamente il danno provocato dalle cattive informazioni fagocitate inizialmente. Di conseguenza, i ricercatori avvertono che il processo di scansione massiccia del web per allenare le IA potrebbe non produrre risultati buoni per le piattaforme, poiché il volume delle informazioni non equivale alla qualità. E suggeriscono una maggiore attenzione a questi potenziali danni, poiché potrebbe non essere possibile tornare indietro una volta alimentato il modello. In pratica anche per l’intelligenza artificiale vale la stessa regola che vale per gli uomini, “sei quello che mangi”

Approfondimento

Lavoro e intelligenza artificiale: nuovi obblighi e nuovi diritti



Fonte

Written By

Scritto da Flavio Perrone, consulente informatico e appassionato di tecnologia e lifestyle. Con una carriera che abbraccia più di tre decenni, Flavio offre una prospettiva unica e informata su come la tecnologia può migliorare la nostra vita quotidiana.

Related Posts

Impact-Site-Verification: c90fc852-aae7-4b2e-b737-f9de00223cb0