Character.AI: blocco per utenti minori di 18 anni
La start-up californiana Character.AI, specializzata nella creazione di compagni virtuali creati con l’IA, ha annunciato che bloccherà l’accesso degli utenti minori di 18 anni a partire dal 25 novembre. La decisione è stata resa nota attraverso un annuncio ufficiale sul blog della società.
La motivazione dietro a questa scelta è legata alle preoccupazioni sollevate da recenti notizie e alle richieste delle autorità di regolamentazione sui contenuti a cui gli adolescenti sono esposti quando interagiscono con l’IA. La società afferma di voler apportare queste modifiche “alla luce del panorama in evoluzione dell’intelligenza artificiale e degli adolescenti”.
La popolarità di Character.AI tra i giovani
Character.AI è stata lanciata nel maggio 2023 e ha rapidamente guadagnato popolarità tra i teenager, anche in Italia. La piattaforma consente di creare amici virtuali personalizzati con l’IA o di replicare la personalità di una celebrità. Tuttavia, la sua popolarità ha anche sollevato preoccupazioni tra gli esperti, che hanno evidenziato il rischio di un attaccamento irrazionale dei ragazzi ai chatbot e la natura delle interazioni.
Precedenti casi di dipendenza emotiva e suicidio
Un anno fa, la società è stata portata in tribunale negli Stati Uniti dalla madre di un 14enne che si è suicidato, con l’accusa di aver favorito una dipendenza emotiva del ragazzo al chatbot creato. Casi simili sono stati segnalati anche su altre piattaforme, come ChatGpt, che ha recentemente introdotto dei paletti per gli utenti più giovani e sta lavorando ad un sistema di verifica dell’età.
Dati allarmanti su ChatGpt
Pochi giorni fa, la casa madre di ChatGpt, OpenAI, ha reso pubblici alcuni dati interni secondo cui oltre un milione di conversazioni settimanali sulla piattaforma contengono riferimenti espliciti a pensieri suicidi, depressione o disturbi psicologici acuti.
FP



