Effettuare qualsiasi operazione con lo smartphone senza il tocco delle dita sul display, ma semplicemente muovendo le mani a distanza. Google sta lavorando a questa tecnologia che attualmente è conosciuta come “Progetto Soli”. Le operazioni sembrano essere in fase avanzata, tant’è che qualche giorno fa il gigante californiano ha ricevuto il via libera dalla Federal Communication Commission, l’ente statunitense preposto ad autorizzare l’entrata in commercio di questo genere di soluzioni.

Il funzionamento è di per sé molto semplice. I prototipi realizzati da Google, che sta testando Progetto Soli sugli smartwatch (gli orologi intelligenti), montano una serie di sensori radar sulla scocca e al loro interno. Questi riescono a mappare l’ambiente circostante riconoscendo il movimento delle mani: ecco dunque che, con un semplice schiocco di dita e senza alcun contatto fisico, potrebbe essere possibile interagire con il sistema operativo.

La genesi di Progetto Soli è stata lunga. Google è a lavoro su questa tecnologia dal 2015, ma inizialmente ha incontrato una serie di problemi legati alla scarsa potenza degli smartwatch. Questo ha causato un funzionamento poco preciso dei sensori radar, una criticità che ormai è stata risolta. La stessa FCC ha mostrato delle perplessità su questa tecnologia nei primi anni, salvo poi riconoscerne l’interesse pubblico e concedere il via libera al gigante californiano.

Del resto le applicazioni potrebbero essere molteplici, con un evidente riferimento agli utenti con problemi di mobilità. Questi verrebbero totalmente aggirati da Progetto Soli, non essendoci appunto la necessità di un contatto fisico per interagire con i dispositivi. Senza contare i potenziali risparmi nella produzione di smartphone, smartwatch e tablet, con la tecnologia touch-screen che potrebbe essere mandata in pensione.

Siamo comunque di fronte a prototipi, per cui prima di vedere questa tecnologia sul mercato ci vorrà del tempo. In ogni caso, nell’articolo potete visionare il video realizzato dai colleghi di The Verge – nota testata online statunitense – che hanno avuto l’opportunità di testare Progetto Soli. Si intravedono enormi potenzialità, i sensori riescono già a stabilire perfettamente la posizione nello spazio delle dita, attivando il sistema operativo solo a determinate distanze.

Steve Jobs, all’epoca della presentazione della prima generazione di iPhone, riteneva superfluo l’utilizzo dei pennini, avendo a disposizione le dita. Adesso potrebbe essere proprio il contatto fisico a diventare obsoleto.

Community - Condividi gli articoli ed ottieni crediti
Articolo Precedente

Trucchi per usare Windows 10 in modo più efficiente e migliore

next
Articolo Successivo

Samsung presenta tre nuovi monitor ad altissima risoluzione: il top è un 49 pollici per giocatori

next