E' accertato che il conducente teneva il cellulare in mano al momento dell’impatto

Un qualsiasi incidente che coinvolga Tesla suscita una notevole eco, e così è stato anche per uno dei sinistri più recenti, sebbene non ci siano stati morti. Ci riferiamo a quello venerdì scorso nello Utah (USA): una Tesla Model S, a 60 miglia orarie, ossia a 96 km/h, si è schiantata contro un camion dei Vigili del Fuoco fermo al semaforo. Solo nelle scorse ore è emersa la versione del guidatore: aveva attivato l’Autopilot della supercar elettrica al 100% e, al momento dell’impatto, era distratto dallo smartphone. Teneva il cellulare in mano e lo guardava anziché stare attento alla strada. L'automobilista non ha frenato né tentato manovre d'emergenza. Un errore fatale: l’Autopilot è un sistema di guida assistita, pertanto il conducente deve sempre e comunque essere del tutto vigile. Una tecnologia che aiuta il guidatore, ma che non lo sostituisce del tutto.

La questione del nome

La colpa del sinistro è giuridicamente da attribuirsi solo al guidatore. La Casa di Elon Musk lo ha ripetuto più volte: con l’Autopilot, il conducente deve fare il proprio dovere come sempre, ossia guidare. Con la massima vigilanza, come dice il manuale dell’Autopilot 7.1. Pur tuttavia, è innegabile che il nome (Autopilot) possa anche essere fuorviante: per esigenze di marketing, per una questione d’immagine e di attrattiva del prodotto, l’azienda di Palo Alto (California) ha dato quel nome alla tecnologia. Che però non svolge esattamente la funzione alla quale il nome allude. Non è un pilota automatico, ma un ausilio. Non è la guida autonoma al massimo livello, non è la vettura robot, ma una via di mezzo fra il grado minimo e quello massimo. In generale, anche a livello di comunicazione sul proprio sito web, la distinzione netta fra guida del tutto autonoma e guida assistita (Autopilot) non c’è. Chissà: magari sarebbe stato utile un altro nome, più realistico e meno affascinante nonché meno fuorviante, tipo Pilot Assistant.

Attenzione mediatica

Così si spiega l’attenzione mediatica sugli incidenti delle Tesla dal 2016, quando si verificò il primo schianto mortale: l’Autopilot non riuscì a discriminare i colori del mezzo pesante (enorme, lunghissimo) che precedeva da quelli del cielo, mentre la vittima era presumibilmente distratta. In due anni la tecnologia di Tesla è migliorata ma l’esito, a guidatore deconcentrato, è il medesimo. Perdipiù, una Tesla Model S in un’altra occasione si era già schiantata contro un camion dei pompieri. E pure in quel caso (s’era trattato di incidente mortale), la colpa era del guidatore, per giunta ubriaco.

Incidenti evitabili?

Resta un dubbio: gli incidenti con Autopilot e con guida semiautonoma, così come i sinistri con la guida autonoma al 100%, sono evitabili? Di sicuro, il conducente va istruito: occorre che sia consapevole dell’uso e dell’abuso della guida assistita delle Tesla. Il cliente non deve farsi trarre in inganno dal nome, indubbiamente equivoco, né mettere scioccamente alla prova il sistema oltre i limiti dello stesso. Perché la vettura è intelligente, ma sino a un certo punto. Una discussione destinata ad animarsi ancor più, anche alla luce di un altro incidente mortale con protagonista una Tesla S, stavolta in Svizzera, sull’autostrada A2/E35 in Canton Ticino il 10 maggio scorso: la vettura è finita contro il guardrail e ha preso fuoco. Il conducente, un uomo tedesco di 48 anni, è morto. Le autorità indagano.

Fotogallery: Tesla Model S 75D