Seleziona una pagina
mercoledì, Gen 11

Monta la polemica: intelligenza artificiale usata per fornire supporto psicologico senza consenso

da Hardware Upgrade :

ChatGPT ha il pregio di portare le potenzialit delle AI
generative nelle mani di chiunque, ma gli esperimenti sull’uso delle AI
sono in corso, tra gli addetti ai lavori, gi da diverso tempo.
Esperimenti che, come sta accadendo nel caso di Koko, una
piattaforma di salute mentale no-profit, possono sollevare polemiche anche
piuttosto accese.

Rob Morris, cofondatore del servizio, ha annunciato lo scorso venerd su
Twitter che la societ ha portato avanti un esperimento per fornire
consulenza sulla salute mentale a 4000 persone utilizzando l’IA e senza
che queste venissero preventivamente informate della cosa: immediatamente
una pioggia di critiche caduta addosso a Morris, che ha dovuto fare i
conti con accuse di immoralit poich non ha ottenuto il consenso
informato da parte delle persone in cerca di consulenza.





Prima un piccolo preambolo per spiegare come funziona Koko: la
piattaforma mette in contatto persone che hanno bisogno di supporto
psicologico con volontari
tramite le app di messaggistica come
Telegram e Discord. Su Discord, in particolare, le persone posso accedere
al server Koko Cares e inviare messaggi diretti ad un bot Koko, il quale
pone una serie di domande a scelta multipla. Le informazioni fornite
dall’utente sono condivise in modo anonimo con altre persone presenti sul
server che possono rispondere in maniera anonima con un breve messaggio.
Il messaggio con cui Koko accoglie il pubblico : “Koko ti mette in
contatto con persone reali che ti capiscono davvero. Non terapisti, non
consulenti, solo persone come te”.

Morris ha raccontato su Twitter che nel corso dell’esperimento, che ha
interessato un volume di circa 30 mila messaggi, i volontari che fornivano
assistenza hanno avuto la possibilit di usare una risposta generata dal modello
GPT-3 di OpenAI
(lo stesso che alla base di ChatGPT) invece di
scriverne una di loro pugno. Secondo quanto dichiarato da
Morris, le persone avrebbero valutato positivamente le risposte generate
dall’intelligenza artificiale fino a quando non hanno saputo che erano
state scritte, appunto, dall’AI.

Alla pubblicazione del messaggio su Twitter sono seguite, come dicevamo,
una valanga di critiche che bollavano l’esperimento come non etico, in
particolar modo per la mancanza del consenso informato e chiedendo se un
organismo di revisione istituzionale avesse approvato l’esperimento. A tal
proposito bene precisare che negli Stati Uniti vietato dalla legge
condurre ricerce su soggetti umani senza che vi sia un consenso informato
con forza legale, a meno che un comitato etico non ritenga che il consenso
possa essere derogato.

Su questo punto per Morris sostiene che l’esperimento non richiederebbe
di sottostare al requisito del consenso informato, poich non vi sarebbe
stata alcuna intenzione di pubblicazione dei risultati. La precisazione di
Morris ha aggiunto benzina al fuoco, scatenando un forte dissenso.





Nel corso della giornata di luned Morris intervenuto nuovamente su
Twitter, cercando di spiegare che tipo di percorso seguir Koko nel futuro
con GPT-3 e l’intelligenza artificiale in generale:

“Ricevo critiche, preoccupazioni e domande
su questo lavoro con empatia e apertura. Condividiamo l’interesse
nell’assicurare che qualsiasi impiego dell’intelligenza artificiale sia
gestito con sensibilit, con profonda attenzione alla privacy, alla
trasparenza e alla mitigazione del rischio. Il nostro comitato
consultivo clinico si riunisce per discutere le linee guida per il
lavoro futuro, in particolare per quanto riguarda l’approvazione
dell’IRB”.

Source link