Seleziona una pagina
sabato, Mag 06

L’intelligenza artificiale è riuscita a tradurre i pensieri in parole | Wired Italia



Da Wired.it :

Immaginate un’intelligenza artificiale dotata della stessa abilità che James Joyce mostrò di possedere scrivendo Ulisse, o – ancora di più, Finnegans Wake: e cioè tradurre istantaneamente il pensiero in parola, senza soluzione di continuità, l’operazione passata alla storia in letteratura come “flusso di coscienza” (d’altronde, come scriveva in Ulisse, “pensiero è il pensiero del pensiero”). Ora potete anche smettere di immaginarlo, perché esiste già. O, almeno, comincia a esistere. Un gruppo di scienziati della University of Texas, Austin ha infatti appena dichiarato di essere riuscita a mettere a punto un algoritmo intelligente in grado di trascrivere il pensiero umano analizzando i dati provenienti dalla risonanza magnetica funzionale cerebrale, un esame con cui si misura il flusso sanguigno che irrora regioni diverse del cervello. I dettagli del lavoro, allo stesso tempo promettente e vagamente inquietante, sono stati appena pubblicati sulla rivista Nature Neuroscience.

I precedenti

Naturalmente, i risultati dello studio appena presentato non sono che l’ultimo atto di una ricerca che va avanti da tempo, e che negli ultimi anni ha subìto un’accelerazione spaventosa: nel 2021, per esempio, uno studio pubblicato sul New England Journal of Medicine aveva descritto un sistema di sensori applicati alla corteccia motoria per cercare di decodificare e tradurre il pensiero di soggetti paralizzati e impossibilitati a parlare; pochi mesi più tardi, un’altra interfaccia cervello-computer, presentata su Nature, aveva mostrato una certa efficacia nel consentire di scrivere semplicemente pensando di farlo. La novità dello studio appena presentato sta nel fatto che non utilizza alcuna interfaccia – com’è facile immaginare, applicare dei sensori in prossimità del cervello è un’operazione estremamente rischiosa e delicata – e si è rivelato comunque in grado di convertire un discorso pensato in un testo reale e di generare una descrizione accurata delle immagini di film muti guardati dai soggetti che hanno partecipato all’esperimento.

L’idea e i risultati

“Non è semplicemente una stimolazione linguistica – ha detto al New York Times Alexander Huth, uno dei neuroscienziati coinvolti nella ricerca – è molto di più: stiamo arrivando alla comprensione di quello che sta avvenendo nel cervello. Il fatto che sia possibile è molto eccitante”. Secondo Martin Schrimpf, neuroscienziato computazionale del Massachusetts Institute of Technology, non coinvolto nel lavoro e raggiunto da Science per un commento, si tratta di uno studio che “mostra come, usando i metodi giusti e modelli appropriati, è effettivamente possibile decodificare cosa sta pensando una persona”. L’idea alla base di questo approccio è di associare ogni parola, frase o periodo con un particolare pattern di attività cerebrale: per farlo, i ricercatori hanno scansionato, tramite risonanza magnetica funzionale, il cervello di tre volontari mentre ascoltavano circa 16 ore di podcast narrativi. Con questi dati in mano, i ricercatori hanno creato un insieme di “mappe” per ogni persona, che mettevano in collegamento la sua attività cerebrale con l’ascolto di una certa parola (o, più precisamente, di una certa frase o di un certo concetto, dal momento che la risonanza magnetica funzionale impiega qualche secondo a registrare l’attività cerebrale, un tempo troppo lungo per riuscire a “scansionare” le singole parole). I dati sono quindi stati dati in pasto a un’intelligenza artificiale per farle svolgere il lavoro che le riesce meglio, ossia scovare pattern, associazioni e correlazioni nella mappa.

I primi risultati non sono stati molto entusiasmanti, raccontano i ricercatori; il miglioramento è arrivato quando hanno incorporato nel loro sistema il modello Gpt (proprio quello di ChatGpt), che ha “aiutato” a prevedere quale parola avrebbe potuto venire dopo un’altra. Mettendo insieme le mappe generate dalle scansioni e il modello linguistico, il sistema generava diverse possibili frasi e per ognuna calcolava la correlazione con l’attività cerebrale registrata: in caso di forte correlazione, la frase era considerata effettivamente pensata e veniva quindi trascritta. Ma in questa prima fase il sistema conosceva in anticipo il contenuto del podcast: i risultati più interessanti sono arrivati dopo, quando l’esperimento è stato ripetuto con podcast sconosciuti. E anche in questo caso l’algoritmo è riuscito a “riscrivere” parole e frasi effettivamente molto somiglianti a quelle del testo reale. Allo stesso modo, si è mostrato in grado di trascrivere quello a cui stavano pensando i volontari mentre guardavano un film muto (per esempio se un soggetto vedeva le immagini di un drago che combatteva con una persona scaraventandolo a terra, il sistema ha scritto: “Mi ha scaraventato a terra”). “Tutto questo dimostra che stiamo andando più in profondità rispetto alla lingua – dice Huth – stiamo arrivando al livello delle idee”.

Il futuro

I prossimi passi, dicono gli autori del lavoro, saranno quelli di provare a rendere il sistema ancora più pratico da utilizzare, provando a replicarlo con l’elettroencefalogramma, un sistema decisamente più comodo e meno costoso rispetto alla risonanza magnetica funzionale, e quindi di provare a utilizzarlo su persone che non sono in grado di comunicare. Naturalmente, bisogna sottolineare che il sistema non è in grado (non è ancora in grado, ma forse non sarà mai in grado) di registrare i pensieri spontanei, e che soprattutto – questo tiene a sottolineare Huth – “richiede un alto livello di consenso e collaborazione da parte della persona: con qualsiasi tipo di resistenza, per esempio se il volontario cominciava a contare mentalmente anziché prestare attenzione al podcast, il sistema diventa completamente inservibile”. A cosa state pensando?



[Fonte Wired.it]