Tesla Autopilot är en välkänd funktion, men är den väl förstådd? Medan namnet på Teslas semi-autonoma körsystem får det att låta som om autopiloten kan köra själv, är sanningen långt ifrån det. Ändå har detta inte hindrat människor från att krascha sina Teslas – och in i utryckningsfordon. Tesla Autopilot-olyckor är ihållande, och nu utreder NHTSA.
Även om det heter Tesla Autopilot, borde det verkligen vara något som Tesla Semi-Autonomous. Tesla Autopilot-funktionen är utformad för att ge förare ökad komfort och säkerhet, men den fråntar inte ansvaret för att köra ett fordon. Tesla Autopilot-användare ska fortfarande hålla händerna på ratten hela tiden, precis som när de kör en vanlig bil.
För att Tesla Autopilot ska fungera bygger funktionen på ett kamerabaserat system för att övervaka vägen och området runt fordonet. Detta kamerabaserade system ersätter radarsensorerna som Tesla använde tidigare. Nu förlitar sig Teslas autopilot och Full Self-Driving-funktioner enbart på det kamerabaserade systemet. Detta fungerar på ett neuralt nätverk, vilket innebär att varje Tesla kommunicerar med Teslas nätverk och delar information som är utformad för att förbättra effektiviteten hos alla Teslas.
Dessa återkommande olyckor väcker frågan; hur effektivt är Teslas kamerabaserade system? Och hur effektiva var radarsensorerna som kom före den?
Det har hittills inträffat elva olyckor med Teslas autopilotfunktion och utryckningsfordon. I några av olyckorna har Teslas kraschat direkt in i utryckningsfordon. Många av dem var redan mitt uppe i att hantera en annan olycka eller incident.
Slate pratade med Raj Rajkumar från Carnegie Mellon. Han är professor i el- och datateknik som är specialiserad på självkörande bilar. Han förklarade att dessa olyckor kan hända eftersom utryckningsfordonen som Teslas kraschar in i står stilla.
När Tesla arbetade med radarsensorer skickade dessa sensorer ut elektromagnetiska vågor, som träffade alla föremål runt dem och sedan kommer tillbaka. Dopplereffekten innebär att frekvensen av dessa vågor ändras baserat på hur objekten runt Tesla rör sig. Om de är stationära är de inte lika lätta att upptäcka. Dessutom får Tesla input från andra stationära föremål som byggnader och vägen, och detta kan vara förvirrande för Tesla.
Rajkumar noterar att nyare generationer av radar gör ett bättre jobb med att skilja mellan något som vägen och en stoppad ambulans.
Teslas nya kamerabaserade system är inte nödvändigtvis bättre än radarsystemet innan det. Det neurala nätverket som nämnts tidigare har några allvarliga begränsningar, särskilt tidigt i sin anpassning. Det kamerabaserade systemet fungerar genom att tolka pixlarna i objekt runt dem. Det neurala nätverket lär sig vad alla dessa pixlar betyder; det är inlärningsmönster. När Tesla stöter på något den inte är bekant med, registrerar den inte det som ett objekt att akta sig för.
Rajkumar använder exemplet med en dödsolycka i Florida med autopilot. Eftersom lastbilen var vinkelrät mot Tesla, snarare än att vända sig mot samma riktning som Tesla, kände Tesla inte igen detta. Den konstaterade att det inte fanns något föremål och körde på lastbilen.
Rajkumar säger att när detta kamerabaserade system stöter på utryckningsfordon med blinkande lampor, registrerar det inte detta som något det har sett tidigare, och det avgör att det inte finns något föremål där. Och uppenbarligen slår det då de fordonen.
Tesla Autopilot-olyckor är uppenbarligen oroande, och det faktum att de kraschar in i utryckningsfordon är ett extra problem. NHTSA gör det klart att Teslas autopilotfunktion inte är autonom. Det är viktigt att Tesla-operatörer har kontroll över sina fordon hela tiden. Förhoppningsvis kommer NHTSA:s utredning att gå snabbt och problemet blir lätt att lösa. Helst kommer ingen annan att skadas eller dödas innan det är löst.