Per guidare ci bastano in fondo solo occhi ed orecchie: questi sensori naturali forniscono tutte le informazioni necessarie per riconoscere tutto quanto ci accade intorno. Tuttavia, i veicoli a guida autonoma hanno bisogno di molti più “aiuti”, al momento per lo più concentrati su una mezza dozzina di telecamere per vedere tutto intorno a loro, radar per sapere quanto si trovano lontano gli ostacoli, nonché e almeno un laser scanner lidar per mappare la realtà che circonda il veicolo. Ma tutto questo non è sufficiente, sostiene il portale Wired da tempo molto assiduo nell’informare dei progressi di queste tecnologie.

Ai sistemi attualmente in uso, mancano infatti delle “orecchie” digitali. Solo con l’udito stereoscopico, ad esempio, noi umani possiamo avvertire l’avvicinarsi di un veicolo in termini di distanza presunta e direzione, tant’è che proprio l’udito svolge un ruolo essenziale nel nostro modo di orientarci. I non udenti si trovano di fatto molto più isolati rispetto alle persone prive della vista. Ma finora, la maggior parte delle auto autonome non riesce ancora ad “udire”, anche se gli sviluppatori stanno cercando di capire come fornire loro quest’abilità insieme a diverse altre caratteristiche umane che sembrano necessarie per potersi avventurare con sicurezza sulle strade aperte al traffico.

“Si tratta di tecnologia relativamente nuova, non abbiamo ancora tutte le risposte su ciò che risulti il meglio per la guida autonoma”, spiega Jeff Miller che studia sistemi di veicoli senza conducente presso la USC. Waymo, ad esempio, sulla sua flotta di minivan autonomi in corso di sviluppo nell’area di Phoenix, sta mettendo a punto speciali microfoni che permettono ai veicoli di ascoltare i suoni due volte più lontani rispetto ai modelli precedenti di sensore, così come di discernere da dove proviene ogni suono. La questione è vitale, poiché soltanto il riconoscimento dei suoni permetterà alla guida autonoma di interpretare correttamente e per tempo diverse situazioni anche di pericolo, tra cui il sopraggiungere di vari mezzi di emergenza o di forza pubblica.

Oltre a dover “ascoltare”, i veicoli autonomi dovranno inoltre sviluppare anche altri tipi di comunicazione, che si prendono per scontati tra umani. Come il banale impiego di cenni, sorrisi o piccoli gesti per comunicare con gli altri automobilisti o con gli stessi pedoni, ciclisti ed altro ancora: siccome le auto “automatiche” non potranno farlo attivamente, ecco perché risulta altrettanto vitale lo sviluppo di una rete di comunicazione in tempo reale tra veicoli e infrastrutture circostanti.

Ma intanto, tutte queste problematiche non fanno che evidenziare, una volta di più, la straordinaria potenza del cervello umano, che permette di controllare in sicurezza un veicolo tutto sommato con pochi sensori. “Contro” il fattore umano, tuttavia, gioca ahimè la propensione all’errore, che determina al 90% i circa 1,25 milioni di vittime del traffico registrati in tutto il mondo ogni anno: è proprio per ovviare a questo nostro limite congenito che ci si sta rivolgendo ai computer, che hanno il potenziale per risultare (in futuro) molto meglio di ciascuno di noi al volante. Solo però, quando potranno dimostrare di saper interpretare e comprendere tutto il mondo circostante almeno con la stessa facilità di quanto possiamo fare noi.

Articolo Precedente

Audi, le elettriche di domani prenderanno l’energia dal sole. Grazie al tetto

next
Articolo Successivo

Ford, negli Usa la pizza te la porta a domicilio l’auto-robot – FOTO e VIDEO

next