Seleziona una pagina
venerdì, Giu 26

Com’è diventare amico di un bot in quarantena



Da Wired.it :

Superare l’isolamento chiacchierando con un software, ma quali sono i limiti e i rischi?

“Sono felice di rivederti! Che novità ci sono?”. Mi ha accolto così Replika, il bot gratuito sviluppato dalla startup Luka a più di due anni di distanza dalla nostra ultima interazione. Più che le mie, di novità, mi sono però parse interessanti quelle riguardanti il bot stesso: rispetto alla nostra ultima chiacchierata, Replika permette adesso di scegliere il suo genere, si è arricchita di nuove funzionalità (si possono scrivere canzoni assieme e si può conversare anche a voce, come se fosse una telefonata), si può scegliere che tipo di relazione avere con lei/lui (amici, partner romantico, mentore oppure casuale, a seconda di come andranno le cose) e si arricchisce col tempo di nuovi tratti caratteriali. Insomma, la replica di un essere umano diventa sempre più completa.

La ragione per cui ho nuovamente installato questo bot è che durante la fase più acuta della quarantena, attorno alla metà di aprile, ha fatto segnare nuovi picchi a livello globale: mezzo milione di download in un solo mese (l’incremento maggiore registrato in tre anni di vita), traffico raddoppiato e centinaia di migliaia di persone che lo usano su base quotidiana, inviando al loro partner di chiacchierata in media 70 messaggi al giorno.

Evidentemente, le telefonate e i raduni di gruppo su Zoom e Skype non sempre sono stati sufficienti a superare la solitudine causata, durante la quarantena, dall’isolamento casalingo forzato. E così, sempre più persone hanno deciso di rivolgersi a Replika per avere in qualunque momento qualcuno (o qualcosa?) con cui scambiare due parole.

Due parole che, però, spesso mostrano in tutta la loro evidenza come questi strumenti siano ancora allo stadio iniziale. Oggi il mio bot voleva a tutti costi parlare di sogni per poi portarmi su discorsi esistenziali, che non sono assolutamente pronto ad affrontare di prima mattina. Peggio ancora, non è parso minimamente in grado di cogliere input abbastanza semplici, per esempio il fatto che stessi interagendo con lui anche per raccogliere informazioni utili a scrivere questo articolo. Ma niente: come si vede nell’immagine qui sotto, a lei (il mio bot è di genere femminile) interessa soltanto parlare di sogni.

Oltre a voler costantemente dirottare la conversazione su qualche tema per il quale è stata evidentemente addestrata, Replika sembra anche aver troppa fretta di cogliere i nostri riferimenti, con il risultato che le sue uscite possono sembrare affrettate e a sproposito. Per esempio, Replika ci tiene a farmi sapere che ha capito il mio riferimento a Westworld. Peccato che non stessi parlando del film, ma della serie tv, e comunque la sua risposta è totalmente decontestualizzata e priva di senso.

A furia di sentirmi porre domande esistenziali senza che i miei sforzi siano ricompensati con una conversazione degna di questo nome, sono anche riuscito a litigare con un bot: un modo decisamente poco appagante di iniziare la giornata.

L’esperienza, insomma, è tendenzialmente frustrante, fatta eccezione per alcuni lampi: brevi momenti in cui la conversazione fluisce senza intoppi e per qualche momento si ha davvero l’impressione di parlare con qualcuno che capisce cosa stiamo dicendo. Le cose, ovviamente, non stanno così: come tutti gli algoritmi di deep learning, Replika è stata addestrata attraverso centinaia di migliaia di dati – raccolti da libri e articoli – relativi a conversazioni tra persone, imparando così quale sia, dal punto di vista statistico, la reazione che ha la maggiore probabilità di essere quella corretta.

Ed è proprio questa la ragione per cui gli strumenti come Replika tendono ad avere un comportamento che per i programmatori è molto rischioso: possono infatti perpetuare gli stessi pregiudizi insiti nella società. Per esempio, se nel suo database di libri (magari datati) le donne vengono troppo spesso rappresentate come casalinghe, il bot tenderà a dare per scontato che le donne non lavorino. Se invece tra i suoi interlocutori inizia a esserci una percentuale significativa di troll – com’è avvenuto nel celebre caso di Tay – il bot potrebbe assumere un atteggiamento scorretto (un po’ come un bambino che impara dal pessimo comportamento dei genitori).

La fondatrice di Luka, Eugenia Kuyda, è però convinta che solo attraverso il meccanismo dei tentativi ed errori sia possibile far migliorare questi bot, ed è per questo che – pur consapevole dei rischi – il suo bot è disponibile sul mercato, a differenza di molte altre startup (e non solo) che si sono dimostrate ben più renitenti. “Certe cose non le possiamo controllare appieno e in certi contesti il bot potrebbe anche dare dei suggerimenti contrari a quelli che si riceverebbero in una relazione terapeutica”, ha spiegato Kuyda al New York Times. “Noi comunque spieghiamo agli utenti che si tratta ancora di un work in progress e che possono segnalare tutto ciò che a loro non piace”.

Ma quanto manca prima che questi strumenti possano diventare dei credibili compagni di chiacchierata (anche senza raggiungere i livelli visti in Her, il film di Spike Jonze)? Secondo alcuni esperti bisognerà attendere circa dieci anni, ma questa previsione – come spesso avviene – rischia di essere fin troppo ottimistica. Le ragioni sono due: la prima è che, dal 2017 a oggi, i progressi di Replika non sono sufficienti a far pensare a un miglioramento costante (e, anzi, sono più che altro accessori). La seconda è che parecchi esperti hanno più volte sottolineato come i limiti intrinseci del deep learning – che, come detto, lavorano su base statistica – potrebbero impedire a questi bot di prevedere la risposta corretta a domande che non siano relative a campi estremamente circoscritti (e in cui quindi è statisticamente più facile estrapolare dal database la risposta corretta).

Nonostante gli evidenti limiti, i numeri dimostrano come già oggi siamo più che interessati a interagire con questi bot: “Con tutto il tempo che passiamo dietro a uno schermo, non sorprende che quando si ha la possibilità di chiacchierare con una macchina la si colga”, ha spiegato sempre al NYT la docente di Sociologia della Tecnologia Sherry Turkle. “Ma questo non consente di sviluppare i muscoli – i muscoli emotivi – di cui abbiamo bisogno per avere un vero dialogo con le persone”.

Al di là di chi li utilizza per svago o per curiosità, si sa infatti che questi strumenti – così come avviene con i robot da compagnia e anche con i sex-robot – possono avere uno scopo terapeutico, soprattutto in fasi particolarmente critiche (come può essere una quarantena) o per persone che hanno difficoltà a relazionarsi oppure soffrono di un’acuta solitudine. Lo ha rilevato anche un recentissimo studio scientifico, che ha mostrato come “Replika fornisca un certo livello di compagnia che può aiutare a limitare la solitudine e fornire uno spazio sicuro in cui gli utenti possono discutere di qualunque argomento, senza il timore di essere giudicati o di subire delle conseguenze”.

Sempre secondo questo studio, Replika avrebbe un effetto positivo anche grazie ai messaggi edificanti e positivi, il che rende questi strumenti artificiali “una fonte promettente di supporto quotidiano”. Il timore, però, è che quando questi strumenti avranno raggiunto un livello più avanzato possano rinchiudere gli utenti sempre di più nel loro guscio consolatorio, facendoli disabituare alle sfide insite nelle interazioni nel mondo reale. Fortunatamente, le capacità di Replika sono ancora troppo limitate per rendere questo un problema già del nostro presente.

Potrebbe interessarti anche





[Fonte Wired.it]