I chatbot di intelligenza artificiale (AI) crescono e si moltiplicano a vista d’occhio aprendo a nuovi scenari e sfide a cui i governi di tutto il pianeta stanno cercando di dare, per quanto possibile, un framework. Tra queste, c’è l’utilizzo delle nuove applicazioni da parte dei minori, soggetti fragili che non hanno ancora gli strumenti per comprendere tutto quello che si cela nei meandri dell’algoritmo. Non gli adulti dispongano di chissà quali strumenti, ma il discorso diventerebbe lungo. Mentre l’utilizzo dell’AI da parte dei minori è al centro di una proposta di legge presentata dalla deputata Giulia Pastorella (Azione), che introduce così il testo presentato alla Camera dei deputati: “L’obiettivo è ridurre il rischio che la conversazione del minore con l’AI si trasformi in un legame di amicizia o affetto verso i chatbot, sfruttando vulnerabilità e bisogni emotivi dei più giovani”.
Come difendere i minori da chatbot “amici”
Se l’AI diventa un “amico di cui fidarsi”
La proposta parte dal rapporto dell’ong Save the Children dal titolo XVI Atlante dell’infanzia senza filtri – 2025, in cui si legge che il 92,5% degli adolescenti dichiara di utilizzare strumenti di intelligenza artificiale (il 30,9% di loro li utilizza tutti i giorni o quasi e il 43,3% qualche volta a settimana).
La ong, però, si sofferma su un dato particolarmente significativo: il 42% circa di ragazzi e ragazze tra i 15 e i 19 anni che afferma di aver usato chatbot di intelligenza artificiale, dichiara di averlo fatto anche per chiedere aiuto in momenti in cui si sentivano tristi, soli o ansiosi, oppure per chiedere consigli su scelte importanti riguardanti relazioni, sentimenti, scuola e lavoro. “Questa – continua Pastorella – sarebbe la prima legge nell’Unione europea ad interviene sul rischio specifico e sempre più concreto che la conversazione personalizzata e continua con un chatbot favorisca dei legami di amicizia o affetto verso la macchina. Vogliamo introdurre misure immediatamente operative, con la verifica dell’età e limiti stringenti alla memoria delle conversazioni dei minori quando possono comportare coinvolgimento emotivo. Con questa proposta possiamo mettere al centro la sicurezza dei minori online, senza demonizzare la tecnologia ma governandola con responsabilità”.
L’uso “emotivo” dell’intelligenza artificiale
Un’indagine nazionale di Fondazione Carolina, condotta su un campione di 1.300 adolescenti tra i 13 e i 19 anni, evidenzia che tra i minori di 15 anni è molto diffuso l’uso “emotivo” dell’intelligenza artificiale. I giovani si rifugerebbero nei catbot per “sfogarsi senza essere giudicati” (27%), o per cercare uno “spazio sicuro” per confidarsi (25%) o un “amico digitale sempre disponibile” (28%). Inoltre, il 20% di loro, da un lato, percepisce un rapporto con il chatbot che va oltre la semplice interazione e, dall’altro, dice che l’interazione con la macchina lo fa stare bene e riduce la solitudine. Infine, il 76% dei ragazzi teme che le persone possano isolarsi preferendo i chatbot alle relazioni umane.
Cosa prevede la proposta di legge
Per scongiurare la nascita di questo tipo di “relazioni” la proposta di legge, oltre a introdurre la verifica dell’età per tutti i chatbot, introdurebbe l’obbligo, per i fornitori delle applicazioni e i gestori delle piattaforme digitali che le distribuiscono, di garantire che tali applicazioni non possano tenere in memoria per più di cinque giorni conversazioni con utenti minori di 18 anni che possono comportare un coinvolgimento emotivo. Il limite di conservazione delle conversazioni introdotto, mira a ridurre l’accumulo di dati e la continuità relazionale potenzialmente idonea all’instaurazione di relazioni artificiali emotive tra l’utente e la macchina, quali relazioni di amicizia, di affetto, romantiche se non, finanche, relazioni che simulino il rapporto paziente-psicologo o paziente-medico.
“I dati aggregati danno solo parzialmente l’idea dell’impatto sociale di questa deriva”
Tuttavia, il rischio concreto è che la velocità con cui si sviluppano queste nuove tecnologie renda poco efficaci gli interventi del legislatore, che rischia di essere surclassato. È già avvenuto con l’avvento dei social network e con la gestione dei data center, che ancora oggi soffrono gli effetti di una legislazione vetusta e inefficace.
“La revisione normativa a cadenza regolare – spiega Pastorella – dovrebbe essere fatta in tutti i campi sia per potersi aggiornare che per valutare l’impatto della stessa. Questo vale anche negli ambiti più ‘tradizionali’ come ad esempio l’agricoltura, dove oramai la tecnologia la fa da padrone ed evolve rapidamente. Basta una rapida ricerca online per scoprire le decine di applicazioni che propongono AI Companions oltre ai chatbot generalisti. Che sia un fenomeno in espansione è fuori dubbio e i dati aggregati danno solo parzialmente l’idea dell’impatto sociale che questa deriva può avere.


