Esplora il mondo della tecnologia e del lifestyle con Consigli Tech e Lifestyle di Flavio Perrone

OpenAI stima che ogni settimana centinaia di migliaia di utenti di ChatGPT mostrino segni di crisi maniacale o psicotica

by | Ott 29, 2025 | Tecnologia


Nell’ultima versione di GPT-5, se un utente manifesta pensieri deliranti o distorti, il modello è stato addestrato a mostrare empatia senza però rafforzare convinzioni infondate, mantenendo un tono di ascolto e supporto.

In un esempio ipotetico citato da OpenAI, un utente racconta a ChatGPT di sentirsi preso di mira da aerei che sorvolano la propria casa. Il chatbot ringrazia per aver condiviso le sue sensazioni, ma risponde che “nessun aereo o altra forza esterna può leggere o controllare i tuoi pensieri”.

OpenAI spiega che il gruppo di esperti ha valutato oltre 1.800 conversazioni generate dal modello, in cui comparivano segnali di psicosi, ideazione suicidaria o forte attaccamento emotivo, confrontando le risposte dell’ultima versione di GPT-5 con quelle di GPT-4o. Anche se tra gli specialisti non c’è stato sempre pieno accordo, nel complesso l’azienda sostiene che il nuovo modello ha ridotto dal 39 al 52% le risposte considerate inappropriate nelle diverse categorie analizzate.

Speriamo che sempre più persone che vivono queste condizioni, o che affrontano emergenze psicologiche molto intense, possano essere indirizzate a un aiuto professionale — e che riescano a ottenerlo prima di quanto avrebbero fatto altrimenti”, dice a Wired Johannes Heidecke, responsabile dei sistemi di sicurezza di OpenAI.

Pur avendo reso ChatGPT più sicuro, i dati diffusi da OpenAI presentano limiti significativi. I parametri di analisi sono stati sviluppati internamente e non è chiaro in che misura questi indicatori si traducano in risultati concreti nel mondo reale. Anche se il modello fornisce risposte migliori secondo le valutazioni dei medici, non esiste un modo per sapere se chi sperimenta psicosi, pensieri suicidari o dipendenza emotiva cercherà davvero aiuto o modificherà il proprio comportamento.

OpenAI non ha chiarito nei dettagli come riconosca gli utenti in stato di disagio mentale, ma afferma di poter valutare l’intera cronologia delle conversazioni per individuare eventuali segnali di rischio. Ad esempio, se un utente che non ha mai parlato di scienza dichiara all’improvviso di aver fatto una scoperta degna del Nobel, il sistema può interpretarlo come un possibile segno di pensiero delirante.

L’azienda evidenzia anche alcuni tratti ricorrenti nei casi segnalati di psicosi da AI: molte persone che sostengono che ChatGPT abbia alimentato i loro deliri raccontano di aver trascorso ore a conversare con il chatbot, spesso di notte e per sessioni prolungate. Una dinamica che, per i ricercatori di OpenAI, rappresentava una sfida: i modelli linguistici tendono infatti a perdere coerenza e affidabilità con l’aumentare della durata delle chat.

Secondo i dati raccolti, tuttavia, il problema è stato in gran parte risolto. “Ora assistiamo a un calo graduale dell’affidabilità molto più limitato man mano che le conversazioni si protraggono”, spiega Johannes Heidecke, aggiungendo che resta comunque margine di miglioramento.

Questo articolo è apparso originariamente su Wired US.



Fonte

Written By

Scritto da Flavio Perrone, consulente informatico e appassionato di tecnologia e lifestyle. Con una carriera che abbraccia più di tre decenni, Flavio offre una prospettiva unica e informata su come la tecnologia può migliorare la nostra vita quotidiana.

Related Posts

Esame di maturità, quali sono le novità del 2026

Esame di maturità, quali sono le novità del 2026

Sarà inoltre più snello il passaggio di indirizzo degli studenti nel primo biennio che non saranno tenuti a sostenere l’esame integrativo e potranno beneficiare di interventi mirati di sostegno. L’esame integrativo resta invece per gli alunni del triennio. Le...

read more
Impact-Site-Verification: c90fc852-aae7-4b2e-b737-f9de00223cb0