Il mondo FQ

BrainGate2, la nuova interfaccia che aiuta i pazienti con Sla a parlare quasi in tempo reale

"Come una chiamata telefonica": l'IA che traduce i segnali cerebrali in parole per pazienti con Sclerosi laterale amiotrofica
BrainGate2, la nuova interfaccia che aiuta i pazienti con Sla a parlare quasi in tempo reale
Icona dei commenti Commenti

Mentre ciclicamente arrivano allarmi e preoccupazioni sull’evoluzione dell’Intelligenza artificiale, la ricerca scientifica e la medicina tagliano traguardi. Come aiutare le persone affetta da Sclerosi laterale amiotrofica (Sla) a tornare a parlare in modo fluido e naturale. Un risultato raggiunto dalla nuova interfaccia uomo-macchina BrainGate2 realizzata dal gruppo di ricerca dell’Università della California a Davis, guidato da Sergey Stavisky e pubblicato sulla rivista Nature. Si tratta microelettrodi impiantati nel cervello che hanno permesso a un paziente di tornare a parlare traducendo i suoi segnali cerebrali in tempo quasi reale.

“È un grande miglioramento rispetto alle tecnologie assistive standard, ma comporta comunque un ritardo nella conversazione. Questa nuova sintesi vocale in tempo reale è simile a una chiamata telefonica“, ha detto Stavisky, ricercatore che in questi anni ha sviluppato un algoritmo di Intelligenza Artificiale capace di trasformare gli impulsi elettrici prodotti dal cervello in linguaggio naturale. L’ultimo traguardo è stato ottenuto coinvolgendo un solo partecipante, affetto da sclerosi laterale amiotrofica, al quale sono stati impiantati quattro elettrodi nel cervello.

Al volontario è stato poi chiesto di provare a pronunciare delle frasi mostrata su uno schermo e i segnali elettrici prodotti dal suo cervello sono stati usati per addestrare una IA che ha identificato correlazioni tra le parole scritte e i segnali dei neuroni. Questi dati sono stati trasformati poi in parole. “Il principale ostacolo incontrato finora per arrivare alla sintesi vocale in tempo reale era quello di non sapere esattamente quando e come la persona con deficit linguistico stesse cercando di parlare“, ha detto, Maitreyee Wairagkar, primo autore dello studio. Problema superato proprio grazie all’algoritmo di IA capace di mappare l’attività neurale e associarla ai suoni desiderati in ogni istante, una tecnica che ha permesso di arrivare a ottimi risultati. Si è passati così dal comprendere appena il 4% delle parole dette dal paziente alla comprensione del 60%, fino alla capacità di poter anche cantare semplici melodie.

“I risultati di questa ricerca – ha detto David Brandman, uno degli autori dello studio – offrono speranza a chi vorrebbe parlare ma non può. Qui abbiamo dimostrato come un uomo paralizzato sia riuscito a parlare con una versione sintetizzata della sua voce e questo tipo di tecnologia potrebbe essere trasformativa per le persone che convivono con la paralisi”. Allo stesso tempo però, sottolineano gli stessi ricercatori, il lavoro fatto è ancora troppo limitato, su un solo paziente, per poter giungere rapidamente a una tecnologia disponibile su larga scala. Il prossimo passo sarà quello di estendere il numero di volontari e migliorare le tecniche.

Lo studio

Gentile lettore, la pubblicazione dei commenti è sospesa dalle 20 alle 9, i commenti per ogni articolo saranno chiusi dopo 72 ore, il massimo di caratteri consentito per ogni messaggio è di 1.500 e ogni utente può postare al massimo 150 commenti alla settimana. Abbiamo deciso di impostare questi limiti per migliorare la qualità del dibattito. È necessario attenersi Termini e Condizioni di utilizzo del sito (in particolare punti 3 e 5): evitare gli insulti, le accuse senza fondamento e mantenersi in tema con la discussione. I commenti saranno pubblicati dopo essere stati letti e approvati, ad eccezione di quelli pubblicati dagli utenti in white list (vedere il punto 3 della nostra policy). Infine non è consentito accedere al servizio tramite account multipli. Vi preghiamo di segnalare eventuali problemi tecnici al nostro supporto tecnico La Redazione