Gli occhi tristi dei robot, i lamenti provenienti da altoparlanti metallici e le braccia tremanti: pur conoscendo razionalmente che un robot non puรฒ provare dolore, รจ sorprendente quanto poco occorra per suscitare compassione e pietร per queste macchine. Lo dimostra lo studio condotto da Marieke Wieringa della Radboud University nei Paesi Bassi, al centro della sua tesi di dottorato. La ricercatrice avverte che la capacitร umana di provare empatia anche per oggetti inanimati potrebbe essere presto sfruttata e manipolata dalle aziende.
Basandosi sui risultati dei test condotti durante la ricerca, Wieringa e il suo team hanno esaminato la reazione delle persone di fronte a atti di violenza contro i robot. “A volte il robot non reagiva affatto, altre volte – afferma la ricercatrice – rispondeva con suoni tristi o gesti associati al dolore”. Mentre i partecipanti non avevano problemi con i robot che mostravano zero emozioni, รจ emerso che quelli in grado di suscitare compassione facevano sentire le persone piรน colpevoli.
Secondo Wieringa, la ricerca mette in luce la necessitร di norme che regolino i casi in cui รจ consentito ai robot, chatbot e simili di simulare emozioni. “Tuttavia, i robot emotivi avrebbero anche dei vantaggi”, osserva la ricercatrice. Potrebbero essere impiegati in terapie riabilitative per aiutare coloro che hanno subito traumi. Ci piace pensare di essere esseri logici e razionali che non si lasciano facilmente ingannare, ma alla fine sono anche le nostre emozioni a guidarci: e va bene cosรฌ, altrimenti – conclude Wieringa – saremmo dei robot anche noi”.


