Esplora il mondo della tecnologia e del lifestyle con Consigli Tech e Lifestyle di Flavio Perrone

Adam Raine, OpenAI sta cercando di scaricare le responsabilità del suicidio sul 16enne e la sua famiglia

by | Nov 27, 2025 | Tecnologia


Gli utenti di ChatGPT accettano che l’utilizzo del chatbot è a loro rischio e pericolo e che non si devono affidare ai suoi risultati come unica fonte di verità o informazioni fattuali”, si legge nel documento, che aggiunge che gli utenti devono anche “accettare di proteggere le persone e non possono utilizzare i servizi per suicidio, autolesionismo’, violenza sessuale, terrorismo o violenza, tra le altre cose”.

Mentre la famiglia di Raine è rimasta scioccata dal fatto che ChatGPT non abbia mai interrotto le chat con il sedicenne, OpenAI ritiene che non sia responsabilità dell’azienda proteggere gli utenti che sembrano intenzionati a violare le condizioni di utilizzo.

L’azienda afferma che ChatGPT ha invitato Raine “più di 100 volte” a cercare aiuto, e che il ragazzo “ha ripetutamente espresso frustrazione per le misure di protezione di ChatGPT e i suoi ripetuti tentativi di indirizzarlo verso i suoi cari, persone di fiducia e risorse di emergenza”.

Raine avrebbe però aggirato le misure di sicurezza, scrivendo a ChatGPT che “le sue domande sull’autolesionismo erano per scopi accademici o non reali”, ha osservato OpenAI. L’azienda, insomma, ribadisce di non essere responsabile per gli utenti che ignorano gli avvertimenti.

OpenAI dichiara anche che il ragazzo avrebbe confidato a ChatGPT di aver trovato le informazioni che cercava su altri siti web, tra cui almeno un’altra piattaforma di intelligenza artificiale e “almeno un forum online dedicato alle informazioni legate al suicidio”.

La morte di Adam Raine è una tragedia”, ha sottolineato OpenAI nel documento depositato in tribunale, evidenziando però che è necessario considerare l’intero contesto e che la società è una pioniera sul fronte della sicurezza dei chatbot AI.

Le crisi di salute mentale legate a ChatGPT

OpenAI sta cercando di minimizzare i rischi legati a ChatGPT. A ottobre, l’azienda ha stimato che lo 0,15% degli utenti attivi di ChatGPT in una data settimana ha conversazioni che includono segnali espliciti di intenzioni suicide o potenziali piani in tal senso. Per quanto la percentuale possa sembrare esigua, si tratta di circa un milione di utenti vulnerabili.

Questa settimana il New York Times ha citato una serie di studi che suggeriscono che OpenAI potrebbe “sottovalutare questi rischi. Le ricerche rilevano che “le persone più vulnerabili alle continue conferme da parte del chatbot” sono “quelle inclini al pensiero delirante”, che secondo quanto riportato dalla testata statunitense “potrebbero includere dal 5 al 15% della popolazione”.



Fonte

Written By

Scritto da Flavio Perrone, consulente informatico e appassionato di tecnologia e lifestyle. Con una carriera che abbraccia più di tre decenni, Flavio offre una prospettiva unica e informata su come la tecnologia può migliorare la nostra vita quotidiana.

Related Posts

IA, tra regole e mondo del lavoro

IA, tra regole e mondo del lavoro

Partiamo dalle possibili novità in ambito Ue che potrebbero arrivare sull’intelligenza artificiale per poi fare il punto sull’impatto di questa tecnologia sul mondo del lavoro in Italia. Con Jacopo Paoletti, imprenditore e autore di “AI Economy” e con Tommaso...

read more
Impact-Site-Verification: c90fc852-aae7-4b2e-b737-f9de00223cb0