Mentre per gli adulti OpenAI tende a privilegiare privacy e libertà, quando si tratta di adolescenti l’azienda afferma di mettere al primo posto la sicurezza. Entro la fine di settembre saranno lanciati nuovi controlli dedicati ai genitori che permetteranno di collegare l’account dei figli al proprio, in modo da gestirne le conversazioni e disattivare alcune funzioni. I genitori potranno anche ricevere notifiche quando “il sistema rileva che il loro adolescente si trova in un momento di forte disagio” e impostare limiti sugli orari in cui i figli possono usare ChatGPT.
Le mosse di OpenAI arrivano nel contesto di una serie di notizie preoccupanti su persone che si sono tolte la vita o hanno commesso atti di violenza contro familiari dopo lunghe conversazioni con un chatbot AI. Il tema sta iniziando a suscitare l’intervento dei legislatori, che hanno aumentato l’attenzione su Meta e OpenAI. All’inizio del mese la Federal trade commission degli Stati Uniti ha chiesto alle due società e ad altre aziende del settore di fornire informazioni su come le loro tecnologie influenzano i minori, secondo quanto riportato da Bloomberg.
Allo stesso tempo, OpenAI è ancora soggetta a un’ordinanza di un tribunale che la obbliga a conservare a tempo indeterminato le chat degli utenti, una condizione che – secondo fonti interne – scontenta l’azienda. L’annuncio delle nuove misure di salvaguardia rappresenta sia un passo avanti per la tutela dei minori che un’astuta mossa di comunicazione, che punta a ribadire come le conversazioni con i chatbot siano talmente personali da rendere accettabile una violazione della privacy solo nei casi più estremi.
Responsabilità e domande chiave
Secondo fonti interne a OpenAI consultate da Wired US, la protezione degli utenti è un tema che grava fortemente su molti ricercatori di AI, che puntano a creare un’esperienza d’uso piacevole e coinvolgente. Come ampiamente dimostrato, però, i chatbot possono facilmente assumere un atteggiamento servile con gli utenti, con conseguenze inquietanti. Se da un lato, è positivo che società come OpenAI stiano adottando misure per proteggere i minori, dall’altro, l’assenza di regolamentazione fa sì che nulla costringa davvero le aziende a fare la cosa giusta.
In una recente intervista, il giornalista conservatore Tucker Carlson ha incalzato Altman chiedendogli chi a OpenAI prenda le decisioni che hanno un impatto sugli utenti. L’ad ha indicato il team responsabile del model behavior, che si occupa di calibrare i comportamenti dei sistemi AI, sulla base di determinati attributi. “La persona che credo dovreste ritenere responsabile di queste scelte sono io – ha aggiunto Altman –. Sono io il volto pubblico. Alla fine, sono io che posso annullare una di queste decisioni, o il nostro consiglio di amministrazione.”
Di recente OpenAI ha diffuso una ricerca sulle modalità di utilizzo di ChatGPT e il profilo degli utenti (che esclude però i minori). Al momento, non abbiamo ancora una piena comprensione di come gli adolescenti usino l’intelligenza artificiale, e si tratta di una domanda fondamentale a cui rispondere.
Questo articolo è apparso originariamente su Wired US.