Kostas Bekris e Eelke Folmer dell’Università del Nevada hanno presentato nelle scorse settimane un nuovo sistema di navigazione da interni dedicato alle persone affette da problemi alla vista. Il progetto è stato presentato il 7 maggio alla prima conferenza internazionale dedicata all’interazione uomo-computer, Cm Sigchi e lo scorso 15 maggio all’Icra, International conference on robotics and automation.

Si chiama Navatar ed è un nuovo sistema di navigazione a basso costo che non richiede l’utilizzo di nessuna sofisticata apparecchiatura se non un comune cellulare di ultima generazione. “Gli attuali sistemi di navigazione per interni – spiega Kostas Bekris, ideatore del progetto – in genere richiedono l’utilizzo di sensori molto costosi e pesanti, oppure l’installazione di particolari rivelatori di frequenze radio che interagiscono con dei lettori portatili per stabilire la posizione dell’utente. Questa situazione ha fatto sì che l’uso di tali sistemi fosse proibitivo dal punto di vista economico e quindi poco utilizzato”.

Per funzionare il sistema ideato dai ricercatori statunitensi non richiede altro che un mappa digitale in due dimensioni, un accelerometro e una bussola. La vera novità è però data dall’interazione dell’utente con il sistema di navigazione, diventando a sua volta come una sorta sensore-umano. “Spesso – spiega Eelke Folmer – i sensori di movimento utilizzati dagli smartphones per calcolare il numero di passi che sono stati eseguiti, tendono a restituire dei risultati non sempre precisi. Per sincronizzare la posizione, il nostro sistema combina gli algoritmi probabilistici con le capacità naturali delle persone con disabilità visive di individuare punti di riferimento nel loro ambiente attraverso il tatto, come ad esempio corridoi, porte, scale e ascensori”. Le indicazioni di movimento verranno quindi fornite dall’applicazione attraverso una voce, mentre la presenza di particolari punti di riferimento verrà indicata dall’utente attraverso un tasto o un comando vocale: in questo modo il sistema di navigazione permetterà di raggiungere la meta prefissata senza l’aiuto di nessuno. Nei test fin’ora condotti sono state utilizzate 12 persone con gli occhi bendati e 6 non vedenti che hanno potuto dimostrare la versatilità del sistema, individuando la posizione dell’utente all’interno di un edificio, con una precisione di 1,85 metri.

“Si tratta di un mix di discipline molto interessante che utilizza l’utente come un sensore vero e proprio, combinandolo con sofisticati algoritmi di localizzazione del campo della robotica. – continua Folmer – La mia ricerca è motivata dalla convinzione che la disabilità può essere trasformata in un volano di innovazione. Quando cerchiamo di risolvere i problemi di progettazione legati all’interazione degli utenti più “estremi”, come ad esempio quelli con disabilità visive, abbiamo la possibilità di scoprire soluzioni di cui tutti ne potranno beneficiare. Anche se il sistema è stato specificamente sviluppato per gli utenti con problemi alla vista, nulla esclude che possa essere utilizzato anche da chi non ha questa disabilità”.

Il progetto ha permesso inoltre a Bekris e Folmer di vincere il “Peta Proggy Award” : il sistema di navigazione ideato dall’Università del Nevada è stato definito “amico degli animali” lasciando intravedere la possibilità di diminuire la richiesta di cani-guida in un prossimo futuro, integrando maggiormente il progetto con sistemi di rivelazione Gps anche per aree esterne.

Articolo Precedente

Violazioni del copyright: Google riceve più di un milione di denunce al mese

next
Articolo Successivo

“AAA cercasi prodotti Apple” per il Museo della Scienza e della tecnologia di Milano

next