Auto >> Fordonsteknik >  >> Bilvård

Tesla-bilar kan återkallas om autopiloten fortsätter att orsaka olyckor

Tesla har erkänt att autopilotsystemet inte fungerar korrekt i kraftigt regn eller när något hindrar ultraljudssensorerna. Elon Musk har till och med sagt att "FSD Beta 9.2 faktiskt inte är bra imo." Det har också inträffat flera incidenter där förare har missbrukat autopilotprogrammet.

En sådan incident inträffade 2019 när en Tesla kraschade och bröt upp i lågor och dödade båda passagerarna i fordonet, som ingen av dem satt i förarsätet.

Det har varit många problem, särskilt olyckor, att det har föranlett en undersökning av National Highway Traffic Safety Administration (NHTSA) av Teslas autopilotprogramvara. Och om NHTSA hittar tillräckligt med bevis på säkerhetsproblem kan det till och med utlösa ett återkallande.

Vad är egentligen Teslas autopilot?

I motsats till dess namn är Autopilot bara ett förarassistanssystem. Autopilotsystemets funktioner inkluderar filhållningshjälp, automatisk nödbromsning, adaptiv farthållare, kollisionsvarning framåt och automatiskt filbyte. Den har också Autosteer, Autopark och Summon, som gör att du kan flytta din Tesla in och ut ur trånga utrymmen utan att vara i bilen. Tyvärr har det inträffat flera incidenter där autopiloten fungerat felaktigt, vilket lett till olyckor.

Många av dessa incidenter involverar första insatsfordon, och många har inträffat efter mörkrets inbrott. Enligt Electrek har Teslas autopilotsystem varit känt för att ha problem, speciellt att upptäcka och stanna för stationära föremål på sidan av vägen. Det är troligtvis mer av en slump att räddningsfordon har varit inblandade i dessa krascher eftersom de ofta stoppas på sidan av vägen. Det finns ingen bugg i systemet som uttryckligen fokuserar på första responders.

NHTSA-utredningen

NHTSA:s undersökning började i augusti efter 11 krascher mellan Teslas och första räddningsfordon. I varje fall fastställde NHTSA att autopilot användes före dessa kollisioner. Och enligt Business Insider lades en 12:e krasch till utredningen efter att en modell 3 körde på en Florida Highway Patrol-bil som stoppades på sidan av I-4 den 28 augusti för att hjälpa en handikappad bilist. Dessa 12 krascher ledde till 17 skador och ett dödsfall.

Enligt CNBC måste Tesla lämna över data från företagets hela autopilot-utrustade flotta, inte bara de 12 fordon som var inblandade i första räddningsolyckorna, inklusive bilar, mjukvara och hårdvara som Tesla sålde från 2014 till 2021, till NHTSA senast den 22 oktober . Och om NHTSA hittar tillräckligt med bevis på säkerhetsproblem, kan byrån begära ett fullständigt återkallande av Tesla-bilar utrustade med autopilot.

Teslas nya "Full Self-Driving"-funktion

Återigen, i motsats till dess namn, är Full Self-Driving (FSD) ett avancerat förarassistanssystem. Det är i grunden en uppgraderad version av Autopilot som kräver ett månadsabonnemang. Enligt Road Show är den i betatestning, och den 10:e versionen av FSD beta håller på att rullas ut. För närvarande deltar cirka 1 000 anställda och ägare i betatestningen för FSD.

Är Teslas autopilotprogram osäker? Många hävdar att programvaran är säker och att problemen ligger hos de som använder den felaktigt. Folk misstolkar ofta vad "autopilot" betyder, och det kanske är det som är problemet. Kanske blir NHTSA:s rekommendation från utredningen att byta namn till något mindre missvisande. Naturligtvis är det förmodligen säkert att säga att Musk sannolikt inte skulle hålla med om den rekommendationen.