Scienza

“Così sarà possibile tradurre i segnali cerebrali di persone che hanno perso la capacità di parlare”

Nel mondo, sono in aumento i casi di persone affette da disturbi neurologici che, con il progredire intaccano il linguaggio sino a poi comprometterlo. Ora, grazie a una protesi vocale, frutto della collaborazione di neuroscienziati, neurochirurghi e ingegneri della Duke University, sarà possibile tradurre i segnali cerebrali di una persona in ciò che sta cercando di dire. Apparsa oggi sulla rivista Nature Communications, la nuova tecnologia, un’interfaccia cervello-computer, potrebbe un giorno fungere da supporto e consentire di poter di nuovo comunicare a tutte le persone che, a causa di problemi neurologici, hanno perso la capacità di parlare.

“Ci sono molti pazienti che soffrono di disturbi motori debilitanti, come la Sclerosi Laterale Amiotrofica o la Sindrome Locked-in, che possono influire sul linguaggio”, ha dichiarato Gregory Cogan, professore di Neurologia presso la School of Medicine della Duke University e uno dei principali ricercatori coinvolti nel progetto. “Ma – ha aggiunto Cogan – gli strumenti attualmente disponibili per permettere loro di comunicare sono generalmente molto lenti e macchinosi”. “Immaginate di ascoltare un audiolibro a metà velocità; questa è la migliore fluidità di decodifica del parlato attualmente disponibile, che si attesta a circa 78 parole al minuto”, ha spiegato Cogan. “Tuttavia – ha continuato Cogan – le persone pronunciano circa 150 parole al minuto e lo scarto tra la velocità del parlato e quella della decodifica è in parte dovuto al numero relativamente basso dei sensori relativi all’attività cerebrale che possono essere fusi su un pezzo di materiale sottile come la carta posta sulla superficie del cervello”. “Un minor numero di sensori fornisce meno informazioni decifrabili da decodificare”, ha aggiunto Cogan.

Per superare queste limitazioni, Cogan ha deciso di lavorare assieme collega del Duke Institute for Brain Sciences, Jonathan Viventi, il cui laboratorio di Ingegneria biomedica è specializzato nella realizzazione di sensori cerebrali ad alta densità, ultrasottili e flessibili. Per la realizzazione del progetto, Viventi e la sua équipe hanno inserito ben 256 microscopici sensori cerebrali in un frammento di grado medicale flessibile, fatto plastica e della dimensione di un francobollo. Poiché i neuroni anche distanti appena un granello di sabbia l’uno dall’altro possono avere schemi di attività molto diversi quando coordinano il discorso, per ottenere previsioni accurate sull’intenzione del discorso, è stato necessario distinguere i segnali provenienti da cellule cerebrali vicine. Una volta fabbricato il nuovo impianto, Cogan e Viventi hanno collaborato con diversi neurochirurghi del Duke University, tra cui Derek Southwell, Nandan Lad e Allan Friedman, che hanno contribuito a reclutare quattro soggetti per testare gli impianti.

L’esperimento prevedeva che i ricercatori inserissero temporaneamente il dispositivo in pazienti che stavano subendo un intervento chirurgico al cervello per altre patologie, come il trattamento della malattia di Parkinson o l’asportazione di un tumore. Il tempo a disposizione di Cogan e della sua squadra per testare il dispositivo in sala operatoria era limitato. “Mi piace paragonarlo a un equipaggio dei box della NASCAR”, ha detto Cogan. “Non volevamo aggiungere altro tempo alla procedura operativa, quindi dovevamo essere dentro e fuori entro 15 minuti”, ha proseguito Cogan. “Non appena il chirurgo e l’équipe medica ci hanno autorizzato ci siamo precipitati e siamo entrati in azione”, ha raccontato Cogan.

Il compito consisteva in una semplice attività di ascolto e ripetizione: i partecipanti hanno ascoltato una serie di parole senza senso, come “ava”, “kug” o “vip”, e poi hanno pronunciato ciascuna di esse ad alta voce. Il dispositivo ha registrato l’attività della corteccia motoria vocale di ciascun paziente mentre coordinava i quasi cento muscoli che muovono le labbra, la lingua, la mascella e la laringe. In seguito, Suseendrakumar Duraivel, primo autore del nuovo studio e studente di ingegneria biomedica alla Duke, ha preso i dati neurali e vocali dalla sala operatoria e li ha inseriti in un algoritmo di apprendimento automatico per verificare quanto fossero accurate le previsioni relative a quale suono veniva emesso, basandosi solo sulle registrazioni dell’attività cerebrale. Per alcuni suoni, come /g/ nella parola “gak”, il decodificatore ha effettuato una predizione esatta l’84% delle volte quando si trattava del primo suono di una stringa di tre che componevano una determinata parola nonsense. La precisione è, però, scesa quando il decodificatore ha eliminato i suoni nel mezzo o alla fine di una parola. Inoltre, la tecnologia si è stata meno reattiva se due suoni erano simili, come /p/ e /b/. Complessivamente, il decodificatore è stato accurato nel 40% dei casi. Può sembrare un punteggio modesto, ma è piuttosto rilevante se si considera che simili abilità tecniche di brain-to-speech richiedono ore o giorni di dati da cui attingere.

L’algoritmo di decodifica vocale utilizzato da Duraivel, tuttavia, lavorava con soli 90 secondi di dati vocali provenienti dal test di 15 minuti. Duraivel e i suoi mentori si sono, ora, dichiarati entusiasti di realizzare una versione senza fili del dispositivo grazie a una recente sovvenzione di 2,4 milioni di dollari del National Institutes of Health. “Stiamo sviluppando lo stesso tipo di dispositivo di registrazione, ma senza fili”, ha evidenziato Cogan. “Sarete in grado di muovervi e non dovrete essere legati a una presa elettrica, il che è davvero entusiasmante”, ha proseguito Cogan. Sebbene il loro lavoro sia incoraggiante, c’è ancora molta strada da fare perché la protesi vocale di Viventi e Cogan arrivi presto sul mercato. “Siamo al punto in cui è ancora molto più lento del parlato naturale”, ha affermato Viventi in un recente articolo del Duke Magazine sulla tecnologia, “ma si si vede la possibile traiettoria d’arrivo”.

Lo studio su Nature

Lucrezia Parpaglioni