La Commissione Europea ha finanziato, nell’ambito del programma Horizon 2020, una ricerca che potrebbe cambiare il nostro modo di interagire con i dispositivi hi-tech. L’evoluzione ci ha già traghettato dall’interfaccia fisica di tastiere e mouse ai touchscreen e ai comandi vocali, ma non è finita. Sta per arrivare il momento in cui potremo toccare e manipolare oggetti tridimensionali su uno schermo, percependoli al tatto. È l’idea alla base del progetto Levitate, coordinato dal Regno Unito e condotto da Germania, Svezia e Danimarca.

Per funzionare si affida alle tecniche di formazione e controllo degli ultrasuoni più evolute al momento disponibili. Le trasforma in strumenti per creare forze acustiche in grado di far levitare particelle, generare segnali audio e feedback tattili quando l’utente manipola oggetti fluttuanti. Il concetto non è semplice, ma basta il video qui sotto per capire esattamente che cosa s’intende all’atto pratico:

 

La parte più difficile del lavoro è stata sincronizzare i processi sensoriali coinvolti. Audio, video e tatto devono essere perfettamente coordinati per restituire all’utente un’esperienza soddisfacente e coinvolgente. Gli ultrasuoni possono essere usati in maniera mirata per creare punti di pressione tattile a mezz’aria che possono essere toccati e percepiti. In questo modo si fornice il feedback sensoriale. Di pari passo devono “scorrere” le immagini proiettate attorno agli oggetti. Solo in questo modo è possibile disporre di un display cosiddetto multimodale, che utilizza più di un modo per comunicare. Nei video d’esempio, l’utente interagisce con un gioco sentendo la musica, vedendo la pista scorrere e manipolando gli oggetti come se fossero entità fisiche. Per questo i ricercatori parlano di una nuova forma di interazione uomo-computer, in cui “il computer può controllare l’esistenza, la forma e l’aspetto di complessi oggetti levitanti”.

 

A cosa potrebbe servire una soluzione del genere, oltre che per giocare? Le potenziali applicazioni sono molte, pensiamo ad esempio al design di prodotti di moda o per l’arredamento, in cui si potrebbero toccare i tessuti, oltre che vederli indossati. Oppure nella progettazione di oggettistica, per verificarne l’effettiva maneggevolezza.

Il progetto si concluderà a dicembre 2020, si spera con un prodotto commerciale pronto da usare.

Articolo Successivo

In Australia arrivano le targhe delle auto personalizzate con le emoticons, costano 300 euro

next