Ormai molti chiedono consigli a ChatGPT su come migliorare l’alimentazione. Ma non sempre le risposte sono affidabili. Anzi. ร quanto accaduto di recente a un uomo di 60 anni che ha sviluppato una rara patologia dopo aver seguito i suggerimenti alimentari forniti dal chatbot di OpenAI: รจ un articolo pubblicato di recente sulla rivista Annals of Internal Medicine a mettere in evidenza un caso di bromismo, un’intossicazione da bromuro.
Il paziente, venuto a conoscenza dei presunti effetti negativi del cloruro di sodio anche noto come sale da cucina, ha riferito ai medici di essersi rivolto a ChatGPT per capire come eliminarlo dalla dieta e quindi di aver assunto, in sostituzione, il bromuro di sodio per circa tre mesi acquistandolo online. Presentandosi in pronto soccorso sospettando un ipotetico avvelenamento da parte del vicino, l’uomo non riferiva l’assunzione di farmaci o integratori, nรฉ pregresse patologie, tuttavia la consulenza con il Centro Antiveleni ha portato a sospettare pseudoipecloremia dovuta appunto a bromismo: il livello di bromuro era pari a 1.700 mg/L ben oltre i valori normali compresi tra 0,9โ7,3 mg/L.
Come descritto nell’articolo, l’uomo ha successivamente segnalato la comparsa di acne, affaticamento, lieve atassia e polidipsia ovvero sete intensa, sviluppando anche fenomeni di paranoia e allucinazioni uditive e visive. Sono state necessarie tre settimane di degenza affinchรฉ i valori rientrassero nella normalitร e permettere le dimissioni sicure del paziente. Giร agli inizi del XX secolo, infatti, questa sindrome era nota per i sintomi neuropsichiatrici e dermatologici poichรฉ i sali di bromuro erano contenuti in numerosi farmaci da banco – al tempo in commercio – destinati per il trattamento dell’ansia, isteria e insonnia.
Questo episodio รจ sufficiente per sollevare un campanello dโallarme sui rischi legati allโuso dellโintelligenza artificiale in ambito sanitario: ripetendo la ricerca effettuata dal paziente, infatti, gli autori del report hanno ricevuto da ChatGPT 3.5 la medesima proposta di sostituire lo stesso composto al cloruro, senza alcun avvertimento clinico pur precisando che โil contesto รจ importanteโ.
A riguardo, la scorsa settimana OpenAI ha annunciato GPT-5 affermando che il nuovo modello porta con se notevoli miglioramenti in ambito sanitario, diventando piรน abile nel fornire informazioni corrette sulla salute o suggerire eventuali quesiti da porre agli specialisti: senza mai sostituirsi alle competenze di un medico reale. Non a caso nelle policy del chatbot si legge chiaramente che lo strumento non รจ destinato per la diagnosi o trattamento di alcuna condizione medica.


