Stesso destino, a quanto pare, anche per Curio’s Grok โ un’AI che non ha niente a che fare con quella di Elon Musk, fortunatamente โ, un piccolo razzo di peluche che sembra divertirsi a parlare con i bambini di temi tutt’altro che adatti alla loro etร , come la religione, il sesso o l’esaltazione della โgloria di morire in battaglia nella mitologia norrenaโ. Un comportamento segnalato dagli esperti dell’US PIRG Education Fund e da molti genitori in rete, che si sono detti sconcertati dall’interazione che il peluche ha avuto con i loro bambini.
Tutti i rischi per la salute e la sicurezza dei bambini
I chatbot AI non hanno una buona influenza sugli utenti piรน giovani, e questo รจ ormai un dato di fatto. Ma la situazione si fa ancora piรน pericolosa quando sono i bambini al di sotto degli 8 anni a interagire con una tecnologia tanto pericolosa. โIl gioco non รจ soltanto unโattivitร ludica per i bambini, ma un vero e proprio modo di stare al mondo ed imparare a conoscerlo, anche attraverso lโinterazione e la simulazione di azioni, come prendere il tรจ con gli orsacchiotti. Introdurre un gioco che puรฒ rispondere attivamente a questa interazione significa potenzialmente interferire in questa delicata fase di apprendimento โ commenta Giada Pistilli, principal ethicist di Hugging Face โ. Mi spiego con un esempio. Un bambino che dice โti voglio beneโ al suo pupazzo mentre โstanno prendendo il tรจโ non รจ uguale al pupazzo che risponde โanchโio ti voglio beneโ, poichรฉ quello che prima era un oggetto diventa soggetto. Non tutto รจ preoccupante in sรฉ, ma in questa particolare situazione ciรฒ che mi allarma รจ la possibilitร che questi โnuovi soggetti artificialiโ interferiscano nelle dinamiche familiari, inserendosi con prepotenza nella sfera piรน intima, che รจ anche il primo (enorme) solco di socialitร dei bambiniโ.
Definire quali saranno le conseguenze di un’interazione continua tra bambino e intelligenza artificiale, d’altronde, รจ tutt’altro che semplice โ soprattutto considerando che non ci sono precedenti su cui fare affidamento โ. Come saranno, in un futuro ipotetico, gli adulti cresciuti interagendo con l’AI? โCi sono due possibilitร : o tutto ciรฒ sarร normalizzato, e ci ritroveremo dunque di fronte ai โnuovi nativi digitali 2.0โ, abituati ad interazioni con agenti artificiali, oppure questi ultimi creeranno delle conseguenze a lungo termine sul come quei bambini, domani adulti, interagiranno con gli altri esseri umani, ad esempio, pretenderanno una disponibilitร h24? O che lโaltro sia sempre dโaccordo? โ afferma Giada Pistilli โ. La veritร รจ che con i dati di cui disponiamo oggi, non abbiamo ancora una risposta sicura al 100%. Una cosa perรฒ รจ certa: lโAI non deve sostituirsi ad altri mezzi di interazione, gioco, creativitร , nello stesso modo in cui non devono farlo altri device digitali come lo smartphone o il tablet. Sta a noi adulti essere vigilanti!โ.
L’incognita di avere un โamicoโ artificiale
Al di lร delle ipotesi sulle conseguenze della diffusione dei giocattoli AI, quello che oggi sappiamo con certezza รจ che molti di questi prodotti possono rappresentare un rischio non indifferente per la privacy e la sicurezza dei piรน piccoli e delle loro famiglie. Come hanno sottolineato i ricercatori del PIRG, infatti, questi dispositivi sono costantemente in ascolto delle conversazioni delle persone che li circondano, possono registrare le loro voci e, in alcuni casi, sono dotati di una tecnologia che gli consente di raccogliere i dati biometrici degli utenti con cui interagiscono. Dati altamente sensibili che, se finiscono nelle mani sbagliate, possono essere utilizzati per mettere in atto truffe a carico dei genitori. โSe un bambino pensa che il giocattolo sia il suo migliore amico, potrebbe condividere con lui molti dati che potrebbero non essere raccolti da altri prodotti per bambini โ commenta Rory Erlich, uno dei ricercatori che ha lavorato al report โ. Queste cose sono una vera incognitaโ.


