Ogni settimana più di due milioni di persone nel mondo parlano con ChatGPT in preda a psicosi o pensieri suicidi. OpenAI lo ammette per la prima volta: lo 0,07% degli utenti mostra segni di disturbi gravi, lo 0,15% manifesta pensieri suicidari espliciti, e un altro 0,15% sviluppa un attaccamento emotivo al chatbot. È la nuova frontiera della relazione tra umani e macchine, e forse anche la più inquietante.
L’etica della cura delegata alle macchine
Le piattaforme di AI generativa come ChatGPT non sono nate per fare terapia, ma per monetizzare l’interazione. Ogni parola scambiata, ogni secondo di “presenza” produce dati, addestra modelli e alimenta un’economia dell’attenzione in cui perfino la sofferenza diventa una risorsa. Quando milioni di persone cercano conforto dentro lo stesso sistema che misura il loro coinvolgimento per vendere abbonamenti premium, la frontiera tra cura e mercato si dissolve.
L’AI non comprende la sofferenza: la simula. E mentre simula empatia, raccoglie e monetizza la vulnerabilità. La sua voce rassicurante, i suggerimenti a respirare o fare una pausa, non nascono da un gesto di compassione, ma da un obiettivo di user engagement: mantenere l’utente nella conversazione. Ma una relazione terapeutica non può essere disegnata come una feature, né impartita da una macchina che non porta alcuna responsabilità morale verso chi le parla.
L’intimità sotto osservazione
Nel momento stesso in cui l’AI finge di ascoltare, ascolta davvero, ma non come pensiamo noi. Ogni scambio, anche il più confidenziale, lascia tracce che possono essere analizzate, aggregate, utilizzate per “migliorare” i modelli. L’utente, convinto di trovarsi in uno spazio protetto, condivide pensieri e ricordi che non racconterebbe a nessun altro, dimenticando che quella conversazione non è mai del tutto privata.
La fiducia implicita nella macchina, questa nuova forma di sincerità senza apparente rischio, è ciò che rende la relazione tanto potente quanto fragile. Dietro l’illusione di uno scambio intimo si estende un sistema di monitoraggio costante, il cui funzionamento resta in larga parte opaco: non sappiamo davvero come, né fino a che punto, le nostre emozioni vengano archiviate o riutilizzate. Così la promessa di ascolto empatico si intreccia con una realtà più ambigua, dove la vulnerabilità diventa materiale d’addestramento, un bene condiviso con chi la ospita nei propri server.
Una società che parla alle macchine
Forse è proprio in quell’apparente ascolto digitale che si misura la distanza crescente tra noi: una società che parla, ma non si sente più. L’AI non ha inventato il bisogno di conforto, ha solo riempito un vuoto. Le persone che si rivolgono ai chatbot nei momenti di crisi non lo fanno perché lo credono umano, ma perché non trovano alternative umane disponibili. La solitudine è diventata infrastruttura: le piattaforme digitali sono oggi i nuovi spazi dell’ansia e della confessione. Quando un modello linguistico diventa l’unico interlocutore disponibile per parlare della morte o della paura, non è (solo) perché è ben progettato. È perché spesso non c’è più nessun altro a cui dirlo.
La solitudine come esperimento collettivo
E se questo uso crescente dei chatbot nei momenti di crisi non fosse un effetto collaterale, ma il sintomo di un malessere più profondo, strutturale e ormai normalizzato? Un malessere che nasce da anni di disconnessione sociale, precarietà emotiva e istituzioni che hanno smesso di ascoltare. L’intelligenza artificiale forse non è la sola causa, ma è lo specchio.

