Seleziona una pagina


Rabbia, felicità, tristezza, paura, disgusto, disprezzo e sorpresa. Mettendo l’intelligenza artificiale nel mixer che combina queste 7 emozioni si possono superare le attuali frontiere del digital human, entrando ufficialmente nell’era dell’affective computing. Varcando la soglia del Superstudio, che a Milano ospita le novità di Reply, uno dei più importanti operatori italiani nel campo del software e dell’informatica, ad accoglierci c’è il sorriso di un assistente virtuale emotivo. Si chiama Rose, ha i capelli rosa e corti e lo sguardo interlocutorio: attende la nostra voce, per capire come accoglierci in modo empatico ed efficace alla due giorni di trend tecnologici e innovazioni aziendali organizzata ogni anno da questa multinazionale italiana. Per guardare oltre, quest’anno oltre il reale.

Combinazioni digitali di emozioni

Per mostrare il lato emotivo dell’intelligenza artificiale, Rose parte infatti un input audio, lo divide in sequenze e individua l’emozione prevalente. Con la tecnologia audio2face, che cioè trasferisce ciò che sente a ciò che si deve vedere, crea poi una risposta empatica che si rispecchierà anche nell’espressione del suo volto. La reazione è dinamica, si adatta in continuazione allo stato d’animo e al modo di porsi dell’interlocutore, ma sulla base del “carattere” che si attribuisce a Rose. Può essere gentile o assertiva, secca o paziente, sempre dosando le diverse emozioni. Per ora pesca solo tra le 7 primarie indicate nella teoria neuroculturale delle emozioni psicologo dallo psicologo Paul Ekman, ma potrebbero presto diventare 48.

Per supportare le aziende nell’accogliere i nuovi talenti in un processo di onboarding sempre più frammentato, meglio si mostri gioviale, per esempio. Risoluta ma coinvolgente dovrà invece essere quando le si affiderà la formazione interna del personale. Mentre familiarizziamo con i nuovi volti dell’affective computing, si sta già lavorando alla versione “deep”. Le emozioni restano ancora 7, ma le si combina per suggerire come agire e reagire durante la giornata. Appena accade “un evento”, ciascuna presenta una sua soluzione a un modello di intelligenza artificiale che raccoglie i vari suggerimenti ed emette un responso finale. Un “saggio” consiglio di cui fare o meno tesoro, ma che l’assistente terrà a mente in un database “storico”, per affinare i suoi suggerimenti nel tempo. Giorno dopo giorno, emozione dopo emozione.

Robot agitati per il test drive

Mentre Rose evolve, la sua tecnologia anima il viso di Ameca, un robot umanoide già tra i più avanzati al mondo quanto a espressività dello sguardo. Con l’affective computing questo suo aspetto migliora ulteriormente, regalando nuove prospettive anche a chi lo utilizza in campo industriale.

Per l’automotive il suo contributo potrebbe essere decisivo nel rispettare l’obbligo di adottare soluzioni per la valutazione della guida impropria entro il 2026 imposto dall’Unione europea. Con un simulatore di guida per sistemi “distratti” allenato da Ameca invece che da esseri umani, si possono accelerare tempi e costi sia della progettazione che dei test delle nuove soluzioni. E migliorarne l’efficacia, ora che questo robot può simulare lo stile di guida identificato tramite sensori tenendo conto, in ogni individuo, anche del fattore emotivo.



Fonte