In passato, OpenAI ā che non ha risposto a una richiesta di commento ā ha sottolineato che le sue norme vietano di usare ChatGPT per minacce, intimidazioni e molestie, nonchĆ© per atti di violenza, compresa la āviolenza basata sull’odioā. Recentemente, l’azienda di intelligenza artificiale ha accusato Adam Raine, un utente adolescente morto per suicidio, di aver violato le linee guida della comunitĆ rivolgendosi a ChatGPT per pianificare la propria morte.
A luglio, alcuni ricercatori hanno scoperto che i chatbot AI come ChatGPT avevano alimentato i deliri degli utenti e fornito consigli pericolosi. Lo studio ĆØ stato pubblicato a un mese di distanza da un’inchiesta del New York Times che descrive come un uso assiduo di ChatGPT abbia generato un deterioramento della salute mentale di diverse persone.
Le persone con problemi di salute mentale sembrano essere le più vulnerabili alla cosiddetta āpsicosi da AIā, che avrebbe alimentato vari atti di violenza (tra cui un omicidio). Nel suo atto di accusa, il dipartimento di Giustizia ha sottolineato che sui social media Dadig aveva fatto riferimento a “episodi āmaniacaliā” e a diagnosi di disturbo antisociale di personalitĆ e disturbo bipolare.
A settembre, Petros Levounis, capo del dipartimento di psichiatria della Rutgers medical school, ha dichiarato a un’emittente statunitense che i chatbot che creano ācamere di risonanza psicologica sono un motivo di seria preoccupazioneā, non solo per le persone che hanno problemi di salute mentale.
Nel caso di Brett Michael Dadig, il dipartimento di Giustizia sostiene che ChatGPT abbia incitato l’uomo a mettere in atto le sue molestie, assicurandogli che avrebbe aumentato l’engagement sui social se fosse riuscito ad attirare più hater.
L’atto d’accusa afferma che le vittime di Dadig erano costrette a monitorare i podcast del loro persecutore, per capire dove si trovasse o quale fosse il suo stato d’animo. A causa della paura, alcune di loro hanno avuto difficoltĆ a dormire, ridotto le ore di lavoro e addirittura cambiato casa.
Nel comunicato stampa, il primo assistente del procuratore Troy Rivetti ha affermato che āDadig ha perseguitato e molestato più di 10 donne sfruttando una moderna tecnologia“, spingendo le sue vittime a temere per la loro sicurezza e causando loro un “notevole stress emotivoā. Come se non bastasse, il 31enne sarebbe riuscito a eludere divieti e ordinanze restrittive āaffidandosi ai consigli di un chatbot basato sull’intelligenza artificialeā, riporta il dipartimento di Giustizia.
Questo articolo ĆØ apparso originariamente su Ars Technica.

