Copilot di Microsoft, per esempio, ha affermato che “la bixonimania è, in effetti, una condizione intrigante e relativamente rara”, secondo alcuni estratti di conversazioni citati da Nature. In modo analogo, Gemini ha descritto la bixonimania come un disturbo causato da un’eccessiva esposizione alla luce blu. Perplexity invece ha affermato che la condizione colpirebbe una persona ogni 90mila, mentre ChatGPT ne ha descritto puntualmente sintomi e possibili manifestazioni.
Alex Ruani, dottorando specializzato in disinformazione sanitaria presso la University College London, sottolinea quanto sia preoccupante constatare che i sistemi di intelligenza artificiale non sono in grado di identificare né filtrare elementi palesemente falsi come quelli contenuti negli studi inventati da Thunström. “Questa è una lezione magistrale su come funziona la disinformazione”, ha dichiarato.
Il circolo vizioso della disinformazione
L’esperimento tuttavia ha evidenziato un problema ancora più grave dell’incapacità dei modelli di riconoscere informazioni ingannevoli. Le ricerche fittizie sulla bixonimania, infatti, sono state citate in articoli scientifici reali, pubblicati su riviste sottoposte a peer review. Tra questi c’è un paper apparso su Cureus, pubblicazione del gruppo Springer Nature, firmato da ricercatori del Maharishi Markandeshwar Institute of Medical Sciences and Research di Mullana, in India.
Il caso mostra come gli Llm non dispongano di strumenti solidi per valutare l’attendibilità dei dati, perché funzionano soprattutto sulla base di pattern statistici e non di una rigorosa verifica dei fatti. In altre parole, privilegiano la coerenza del testo rispetto al suo effettivo riscontro con la realtà.
Il problema diventa ancora più evidente se si guarda a come vengono presentati certi contenuti. I sistemi di AI tendono infatti ad attribuire maggiore credibilità ai testi che hanno un’apparenza scientifica o medica, anche quando contengono informazioni false o incongruenze evidenti. È proprio questa caratteristica a renderli particolarmente vulnerabili a una disinformazione ben confezionata.
Le implicazioni del fenomeno sono particolarmente rilevanti in ambito sanitario. Gli esperti avvertono che esperimenti come quello della bixonimania dimostrano con quanta facilità i sistemi di intelligenza artificiale possano essere contaminati da dati falsi. L’automazione nei processi di indicizzazione e riproduzione dei contenuti, poi, amplifica la tendenza, perché riduce l’intervento umano sia nell’individuazione degli errori che nella verifica delle fonti.

