Tesla, guida autonoma sotto accusa. Con l’Autopilot frenate fantasma e incidenti mortali
L’immagine futuristica delle auto che si guidano da sole, promossa da Elon Musk e dalla sua Tesla, continua a incrinarsi. A lanciare l’allarme, questa volta, è un’inchiesta approfondita pubblicata dal Guardian il 26 aprile 2024, che svela i risultati di tre anni di indagini condotte dalla National Highway Traffic Safety Administration (NHTSA), l’agenzia federale americana per la sicurezza stradale. Il quadro che emerge è tutt’altro che rassicurante: il sistema di guida semi-autonoma Autopilot è stato coinvolto in almeno 13 incidenti mortali tra il 2021 e il 2023, con numerosi altri sinistri con feriti, spesso dovuti a malfunzionamenti o all’uso improprio del sistema da parte degli automobilisti.
Il nodo principale, secondo quanto riportato dal Guardian, è l’estrema vulnerabilità del sistema di monitoraggio del conducente. L’Autopilot richiede che chi si trova al volante mantenga l’attenzione sulla strada, ma i meccanismi attualmente in uso — come il sensore sul volante che rileva solo una lieve pressione — sono facilmente aggirabili. Ciò ha favorito un utilizzo scorretto del sistema, spingendo molti automobilisti a ritenere, erroneamente, che la vettura fosse in grado di gestire da sola tutte le fasi della guida. La stessa denominazione commerciale scelta da Tesla — “Autopilot” e “Full Self-Driving” — è stata criticata dai regolatori e da esperti del settore per essere fuorviante e contribuire a una falsa percezione di autonomia.
A questo si aggiunge uno dei problemi più preoccupanti emersi negli ultimi anni: il fenomeno delle cosiddette frenate fantasma (phantom braking). La NHTSA ha ricevuto oltre 750 denunce da parte di automobilisti Tesla che, tra il 2021 e il 2022, hanno segnalato brusche decelerazioni in autostrada o in condizioni di traffico normale, senza alcun ostacolo reale. In molti casi si trattava di Model 3 e Model Y dotate di telecamere ma prive di radar, un cambiamento introdotto da Tesla con l’obiettivo di affidarsi completamente alla visione artificiale. Tuttavia, questa scelta ha portato a un incremento dei falsi positivi da parte dei sistemi di assistenza alla guida, che interpretano erroneamente ombre, segnali stradali o veicoli lontani come minacce imminenti, attivando una frenata di emergenza non necessaria.
Il risultato è un rischio concreto per la sicurezza: un’auto che frena improvvisamente in autostrada può causare tamponamenti a catena, lesioni o situazioni di panico tra i passeggeri. Tesla ha cercato di porre rimedio con aggiornamenti software over-the-air (OTA) e, nel dicembre 2023, ha annunciato un richiamo record di oltre 2 milioni di veicoli per migliorare la capacità del sistema di sorvegliare il comportamento del conducente. Tuttavia, come sottolinea il Guardian, anche dopo questi aggiornamenti sono stati registrati nuovi incidenti, portando la NHTSA ad aprire un’ulteriore indagine per valutare l’efficacia reale delle misure correttive adottate.
Il comportamento dell’azienda di fronte a questi problemi è stato definito da molti osservatori come opaco. In documenti interni, secondo quanto rivelato da un’altra inchiesta internazionale pubblicata dal Handelsblatt e ripresa da diverse testate europee, emerge come Tesla avrebbe istruito il proprio personale a non lasciare tracce scritte delle lamentele dei clienti relative ai malfunzionamenti del sistema di guida autonoma, preferendo comunicazioni verbali e non tracciabili. Si tratterebbe di un tentativo, implicito ma sistematico, di evitare implicazioni legali e responsabilità dirette in caso di sinistri legati alla tecnologia installata a bordo.
Le problematiche non si fermano ai confini degli Stati Uniti. In Germania, l’autorità KBA (Kraftfahrt-Bundesamt) ha aperto nel 2025 un’indagine specifica sulle frenate fantasma, e anche in Italia numerosi utenti segnalano esperienze simili nei forum dedicati.
Il caso Tesla riapre dunque una questione fondamentale nel dibattito sulla mobilità del futuro: fino a che punto ci si può affidare all’intelligenza artificiale per gestire situazioni complesse e imprevedibili come la guida? Se da un lato la tecnologia può effettivamente contribuire a ridurre gli incidenti causati da errore umano, dall’altro deve essere accompagnata da standard di affidabilità molto più elevati di quelli oggi garantiti. Il fatto che Tesla commercializzi ancora il pacchetto “Full Self-Driving”, seppur vendendolo a caro prezzo e lasciando ai clienti la responsabilità ultima della guida, solleva interrogativi etici e giuridici che le autorità stanno finalmente iniziando ad affrontare.