Anno 2020. State tornando a casa nella vostra auto a guida autonoma, percorrendo il solito tragitto, quando una palla vi compare davanti, seguita un istante dopo dal bambino che cerca di riacchiapparla. La velocità è di 70 km/h, la distanza tra veicolo e bimbo troppo breve e va presa una decisione in pochi decimi di secondo. Con un’auto normale cosa fareste? Dopo esservi attaccati ai freni, all’approssimarsi dell’inevitabile probabilmente sterzereste con forza. Dopodiché le possibilità sono molteplici: un prato privo di ostacoli dove terminare la corsa con un testacoda e uno spavento, oppure un muretto, un palo, un albero, una casa, dove terminarla e basta. Magari il bambino si salverebbe e voi no, ma passereste a miglior vita soddisfatti di aver fatto una buona azione. E se invece, nello scartare di lato, foste piombati su un gruppo di passanti?

Senza continuare con esempi macabri, la questione si delinea chiaramente: come deve comportarsi un’auto a guida autonoma in caso di emergenza, di chi è la responsabilità, chi deve pagare il prezzo di un imprevisto? Perché le responsabilità civili e penali le decideranno i singoli Stati che inizieranno ad autorizzare le auto a guida autonoma e i soggetti interessati sono essenzialmente tre: la casa automobilistica, il guidatore e il gestore delle strade. Non esiste ancora un ordinamento di riferimento né un pensiero univoco, ma visto il business che le driverless car portano con sé, verranno sicuramente trovati. La “questione morale”, invece, è molto più difficile da risolvere. Lo aveva già detto Alberto Broggi, presidente del VisLab di Parma, cioè l’unico centro di ricerca italiano dove la guida autonoma si studia da vent’anni: “Dovremo programmare le auto perché, in caso di emergenza, si comportino in un modo piuttosto che in un altro, ma la scelta non è sempre facile. (…) Dobbiamo iniziare a contare le vite, a dare dei pesi?”

Pochi giorni fa, poi, è arrivata la prima posizione ufficiale di una casa automobilistica, nella fattispecie BMW. “La tecnologia verrà ostacolata da un problema più difficile da affrontare, la morale comune”, ha dichiarato al Detroit News Ian Robertson, Responsabile delle vendite. Robertson ha centrato il problema: “Un algoritmo potrebbe prendere una decisione che non sarebbe accettabile dal punto di vista sociale e culturale”. Allo stesso modo, sarà molto difficile mettere d’accordo le assicurazioni, a meno che non si demandi al guidatore tutta la responsabilità. Ma a quel punto, chi si fiderebbe di un’auto a guida autonoma? La realtà, quindi, è molto diversa e quella dipinta in vari film di fantascienza rimarrà tale ancora a lungo.

Google Lexus self driving cars

Nel frattempo, Google ha ufficializzato i dati sugli incidenti occorsi alla propria flotta di venti Lexus RX450h driverless. In sei anni e mezzo e 2,7 milioni di chilometri percorsi, ci sono stati solo 11 sinistri, tutti di lievissima entità, con danni circoscritti a fari e paraurti, ma soprattutto nessuno è avvenuto in modalità autonoma. In sette casi si è trattato di tamponamenti subìti e in altri di “toccatine” all’ordine del giorno. Tutto bene, allora? Ni, perché le Lexus autonome hanno iniziato da pochissimo a frequentare le aree urbane, quelle dove i rischi sono maggiori, e dalla prossima estate gli esperimenti su strada si moltiplicheranno quando inizieranno a girare per Mountain View anche le Google Car. Insomma, benché questi dati siano incoraggianti, anche quando le automobili saranno sul serio capaci di guidare da sole, la supervisione umana rimarrà necessaria. Niente pisolini, lettura di quotidiani o visione dei film, gli occhi del guidatore dovranno rimanere sempre sulla strada, per avere la possibilità di riprendere il controllo in qualsiasi momento.