Neuroingegneria, una nuova tecnologia traduce i pensieri in parole
Un nuovo sistema, basato sull’intelligenza artificiale, traduce in parole a voce alta i segnali cerebrali prodotti dal cervello mentre pensiamo. E potrebbe servire ai pazienti che non possono parlare. Lo studio dei neuroscienziati della Columbia University
Poter parlare senza parlare, soltanto pensando. Un nuovo dispositivo, sviluppato dai neuroscienziati della Columbia University, è riuscito a sviluppare una nuova tecnologia che trasferisce in linguaggio verbale i segnali prodotti dal cervello mentre pensa. Così il pensiero potrebbe essere in futuro tradotto in parole: uno strumento utile soprattutto per chi non può parlare, come pazienti con la sclerosi laterale amiotroficao che hanno avuto un ictus. I risultati dello studio sono pubblicati su Scientific Reports.
Non è la prima volta che neuroscienziati rivolgono l’attenzione a sistemi per tradurre i pensieri in parole (anche scritte su schermo). Oggi algoritmi basati su sistemi di intelligenza artificiale hanno consentito di raggiungere questo obiettivo. In questo caso, però, i ricercatori hanno decodificato i segnali cerebrali associati alle parole, sia ascoltate che pensate, per tradurli in parole pronunciate ad alta voce.
Si tratta della stessa tecnologia di base utilizzata da Siri o Alexa, spiega Nima Mesgarani, che ha coordinato lo studio.
L’idea alla base è che ci sia un decoder, o meglio un vocoder, che trasferisce un pensiero in una parola. In generale, un vocoder – un termine che nasce dalla fusione dei vocaboli inglesi voice e decoder – è un dispositivo elettronico o un programma (uno strumento utilizzato nel settore delle telecomunicazioni) capace di codificare un segnale sonoro sulla base di parametri impostati attraverso un modello matematico.
I ricercatori hanno realizzato proprio questo strumento, insegnando al vocoder a “interpretare i pensieri”. Ricerche precedenti hanno mostrato che mentre le persone parlano – o anche immaginano di parlare e mentre ascoltano – nel cervello si attivano specifici percorsi (o pattern) cerebrali, riconoscibili se studia l’attività del cervello. Quest’attivazione corrisponde al segnale del cervello che gli autori intendevano decodificare.
Gli autori sono partiti da queste conoscenze per trovare un metodo per tradurre questi segnali in parole. Inizialmente avevano provato ad utilizzare modelli computazionali basati sull’analisi degli spettrogrammi, che sono rappresentazioni grafiche – visive – di frequenze sonore. Questi grafici sono simili a immagini che riproducono l’intensità del suono sulla base del tempo e della frequenza. Tuttavia questo approccio è fallito perché non è riuscito a produrre espressioni orali comprensibili.
Così gli autori hanno scelto una tecnologia diversa, basata appunto sull’uso del vocoder, insegnando al sistema a interpretare le rappresentazioni cerebrali. In questo caso, è stato chiesto a pazienti con epilessia, già operati, di ascoltare frasi pronunciate a voce alta da persone diverse, mentre i ricercatori analizzavano i percorsi cerebrali attivati. “Questi pattern neurali hanno addestrato il vocoder”, spiega Mesgarani.
Successivamente, i pazienti ascoltavano voci che pronunciavano le cifre da 0 a 9, mentre i ricercatori hanno registrato i segnali cerebrali, che venivano sottoposti all’attenzione del vocoder. Il vocoder interpretava i segnali e produceva suoni, che sono stati poi analizzati e ripuliti da un sistema di intelligenza artificiale. In particolare, gli autori hanno utilizzato una rete neurale artificiale, ovvero un modello computazionale costituito da neuroni artificiali ispirato ad una rete biologica. Dopo questa operazione, i ricercatori hanno ottenuto una voce robotica che recitava la sequenza di numeri.
“Abbiamo osservato che le persone riuscivano a capire e ripetere i suoni [senza parlare, ma con questo sistema ndr] il 75% delle volte”, sottolinea Mesgarani, “un risultato che è ben al di là di qualsiasi previsione precedente”. La sensibilità del vocoder, unita alla potenza della rete neurale ha riprodotto i suoni originariamente ascoltati dai pazienti con una precisione sorprendente”.
Il prossimo passo, spiegano gli autori, sarà quello di provare a tradurre i pensieri collegati a parole e frasi più complesse e testare lo strumento sui segnali cerebrali prodotti da persone non solo mentre ascoltano ma anche mentre parlano o pensano di parlare. L’obiettivo ultimo è quello di poter sviluppare un dispositivo che i pazienti possano indossare ed utilizzare per parlare attraverso i pensieri.
Di: Viola Rita
Fonte: