La Cina si muove per tutelare l’uso di internet da parte dei minori
Dopo Australia e Stati Uniti, anche la Cina si sta muovendo per cercare di tutelare l’uso di internet da parte dei minori. Secondo una bozza di regolamento ripresa dalla CNBC, Pechino vorrebbe impedire ai chatbot basati sull’intelligenza artificiale di influenzare le emozioni umane in modi che potrebbero portare al suicidio o all’autolesionismo.
Le normative proposte dalla Cyberspace Administration cinese mirano a quelli che vengono definiti “servizi di intelligenza artificiale interattivi simili agli umani”. Per la Cina, i chatbot non dovrebbero generare contenuti con un forte impatto sulle persone, in modo particolare i più giovani, né ricorrere alla violenza verbale o alla manipolazione emotiva.
Le nuove regole per i chatbot
Se un utente parla espressamente del suicidio, i fornitori di tecnologia devono far sì che una persona responsabile dell’IA prenda il controllo della conversazione e contatti immediatamente il tutore dell’utente o una persona designata. Inoltre, i chatbot di IA non devono generare contenuti correlati al gioco d’azzardo, osceni o violenti. I minorenni devono avere il consenso del tutore per utilizzare l’intelligenza artificiale per la compagnia emotiva, con limiti di tempo per l’utilizzo.
Le piattaforme dovrebbero essere in grado di stabilire se un utente è minorenne anche se non rivela la propria età e, in caso di dubbio, applicare impostazioni per i minori. Quest’ultima possibilità è stata già perseguita da OpenAI, che di recente ha aggiornato le sue linee guida per introdurre nuovi indicatori in grado di riconoscere la presenza di un minorenne.
Le aziende si adeguano
La diretta rivale di OpenAI, Anthropic, ha invece migliorato i suoi sistemi per stabilire se dietro la chat c’è un under 18 e, in tal caso, bloccare del tutto la conversazione.
Riproduzione riservata © Copyright


