
Deze bestandsfoto van 8 juli 2018 toont Tesla 2018 Model 3 sedans die te zien zijn buiten een Tesla-showroom in Littleton, Colorado. De Amerikaanse regering heeft een formeel onderzoek geopend naar Tesla’s Autopilot, gedeeltelijk geautomatiseerde rijsysteem, en zegt dat het moeite heeft om geparkeerde hulpdiensten te spotten . De National Highway Traffic Safety Administration heeft de actie maandag 16 augustus 2021 aangekondigd in een bericht op haar website. Krediet: AP Photo/David Zalubowsi, Bestand
De Amerikaanse regering heeft een formeel onderzoek geopend naar Tesla’s Autopilot gedeeltelijk geautomatiseerde rijsysteem na een reeks aanrijdingen met geparkeerde hulpverleningsvoertuigen.
Het onderzoek heeft betrekking op 765.000 voertuigen, bijna alles wat Tesla sinds het begin van het modeljaar 2014 in de VS heeft verkocht. Van de crashes die door de National Highway Traffic Safety Administration werden geïdentificeerd als onderdeel van het onderzoek, raakten 17 mensen gewond en één werd gedood.
NHTSA zegt dat het sinds 2018 11 crashes heeft geïdentificeerd waarbij Tesla’s op Autopilot of Traffic Aware Cruise Control voertuigen hebben geraakt op scènes waar eerstehulpverleners flitsende lichten, fakkels, een verlicht pijlbord of kegels die voor gevaren waarschuwden, hebben gebruikt. Het bureau maakte de actie maandag bekend in een bericht op haar website.
De sonde is een ander teken dat de NHTSA onder president Joe Biden een strenger standpunt inneemt over de veiligheid van geautomatiseerde voertuigen dan onder eerdere regeringen. Voorheen was het agentschap terughoudend om de nieuwe technologie te reguleren uit angst om de acceptatie van de potentieel levensreddende systemen te belemmeren.
Het onderzoek heeft betrekking op Tesla’s volledige huidige modellenreeks, de modellen Y, X, S en 3 van de modeljaren 2014 tot en met 2021.
De National Transportation Safety Board, die ook enkele van de Tesla-crashes uit 2016 heeft onderzocht, heeft aanbevolen dat NHTSA en Tesla het gebruik van Autopilot beperken tot gebieden waar het veilig kan werken. De NTSB heeft ook aanbevolen dat de NHTSA van Tesla een beter systeem eist om ervoor te zorgen dat bestuurders opletten. NHTSA heeft geen actie ondernomen op een van de aanbevelingen. De NTSB heeft geen handhavingsbevoegdheden en kan alleen aanbevelingen doen aan andere federale instanties.
Vorig jaar beschuldigde de NTSB Tesla, chauffeurs en lakse regelgeving door NHTSA voor twee botsingen waarbij Tesla’s onder kruisende trekker-opleggers crashten. De NTSB nam de ongebruikelijke stap om de NHTSA te beschuldigen van bijdragen aan de crash omdat ze er niet voor hadden gezorgd dat autofabrikanten voorzorgsmaatregelen hadden genomen om het gebruik van elektronische aandrijfsystemen te beperken.
Het bureau heeft de vaststellingen gedaan na onderzoek naar een crash in 2019 in Delray Beach, Florida, waarbij de 50-jarige bestuurder van een Tesla Model 3 om het leven kwam. De auto reed op Autopilot toen noch de bestuurder, noch het Autopilot-systeem remden of probeerden een trekker-oplegger die op zijn pad kruiste te ontwijken.
“We zijn blij om te zien dat de NHTSA eindelijk gehoor geeft aan onze langdurige oproep om Tesla te onderzoeken voor het op de weg brengen van technologie die naar verwachting zal worden misbruikt op een manier die leidt tot crashes, verwondingen en sterfgevallen”, zegt Jason Levine, uitvoerend directeur van de non-profit Center for Auto Safety, een belangenorganisatie. “Als er iets is, moet deze sonde veel verder gaan dan crashes waarbij eerstehulpvoertuigen betrokken zijn, omdat het gevaar is voor alle bestuurders, passagiers en voetgangers wanneer Autopilot is ingeschakeld.”
Autopilot is vaak misbruikt door Tesla-chauffeurs, die zijn betrapt op dronken rijden of zelfs op de achterbank terwijl een auto over een snelweg in Californië rolde.
Maandag vroeg werd een bericht achtergelaten met het verzoek om commentaar van Tesla, dat zijn kantoor voor mediarelaties heeft ontbonden.
De NHTSA heeft sinds juni 2016 onderzoeksteams gestuurd naar 31 ongevallen met gedeeltelijk geautomatiseerde rijhulpsystemen. Dergelijke systemen kunnen een voertuig in het midden van zijn rijstrook houden en op veilige afstand van voertuigen ervoor. Van die crashes waren er 25 betrokken bij Tesla Autopilot waarbij 10 doden werden gemeld, volgens gegevens die door het bureau zijn vrijgegeven.
Tesla en andere fabrikanten waarschuwen dat bestuurders die de systemen gebruiken te allen tijde gereed moeten zijn om in te grijpen. Naast het oversteken van halve auto’s, zijn Tesla’s die Autopilot gebruiken ook tegen gestopte hulpdiensten en een wegversperring gebotst.
De sonde door NHTSA is veel te laat, zei Raj Rajkumar, een professor in elektrische en computertechniek aan de Carnegie Mellon University die geautomatiseerde voertuigen bestudeert.
Het falen van Tesla om bestuurders effectief te controleren om er zeker van te zijn dat ze opletten, zou de topprioriteit moeten zijn in het onderzoek, zei Rajkumar. Tesla’s detecteren druk op het stuur om ervoor te zorgen dat bestuurders betrokken zijn, maar bestuurders houden het systeem vaak voor de gek.
“Het is heel gemakkelijk om de stuurdruk te omzeilen,” zei Rajkumar. “Het is al aan de gang sinds 2014. We zijn hier al lang over aan het praten.”
De door de NHTSA aangehaalde crashes in hulpverleningsvoertuigen begonnen op 22 januari 2018 in Culver City, Californië, in de buurt van Los Angeles, toen een Tesla met Autopilot een geparkeerde brandweerwagen aanreed die gedeeltelijk in de rijstroken stond met knipperende lichten. De bemanning was op dat moment bezig met een ander ongeval.
Sindsdien zei het bureau dat er crashes waren in Laguna Beach, Californië; Norwalk, Connecticut; Cloverdale, Indiana; West Bridgewater, Massachusetts; Cochise County, Arizona; Charlotte, Noord-Carolina; Montgomery County, Texas; Lansing, Michigan; en Miami, Florida.
“Het onderzoek zal de technologieën en methoden beoordelen die worden gebruikt om de betrokkenheid van de bestuurder bij de dynamische rijtaak tijdens de Autopilot-operatie te bewaken, te assisteren en af ​​​​te dwingen”, zei NHTSA in haar onderzoeksdocumenten.
Bovendien dekt de sonde object- en gebeurtenisdetectie door het systeem, evenals waar het mag werken. NHTSA zegt dat het “bijdragende omstandigheden” aan de crashes zal onderzoeken, evenals soortgelijke crashes.
Een onderzoek kan leiden tot een recall of andere handhavingsactie van de NHTSA.
“NHTSA herinnert het publiek eraan dat geen enkel commercieel verkrijgbare motorvoertuig vandaag de dag in staat is om zichzelf te besturen”, zei het agentschap in een verklaring. “Elk beschikbaar voertuig vereist dat een menselijke bestuurder te allen tijde de controle heeft, en alle staatswetten houden menselijke bestuurders verantwoordelijk voor de bediening van hun voertuigen.”
Het bureau zei dat het “robuuste handhavingsinstrumenten” heeft om het publiek te beschermen en mogelijke veiligheidsproblemen te onderzoeken, en het zal optreden wanneer het bewijs vindt “van niet-naleving of een onredelijk risico voor de veiligheid”.
In juni beval de NHTSA alle autofabrikanten om ongevallen met volledig autonome voertuigen of gedeeltelijk geautomatiseerde rijhulpsystemen te melden.
Aandelen van Tesla Inc., gevestigd in Palo Alto, Californië, daalden 3,5% bij de openingsbel maandag.
Tesla gebruikt een op camera’s gebaseerd systeem, veel rekenkracht en soms radar om obstakels te herkennen, te bepalen wat ze zijn en vervolgens te beslissen wat de voertuigen moeten doen. Maar Rajkumar van Carnegie Mellon zei dat de radar van het bedrijf werd geplaagd door “vals-positieve” signalen en auto’s zou stoppen nadat ze hadden vastgesteld dat viaducten obstakels waren.
Nu heeft Tesla radar geëlimineerd ten gunste van camera’s en duizenden afbeeldingen die het neurale computernetwerk gebruikt om te bepalen of er objecten in de weg staan. Het systeem, zei hij, doet het erg goed op de meeste objecten die in de echte wereld zouden worden gezien. Maar het heeft problemen gehad met geparkeerde hulpverleningsvoertuigen en loodrechte vrachtwagens op zijn pad.
“Het kan alleen patronen vinden waarop het ‘quote unquote’ is getraind,” zei Rajkumar. “Het is duidelijk dat de inputs waarop het neurale netwerk is getraind gewoon niet genoeg beelden bevatten. Ze zijn maar zo goed als de inputs en training. Bijna per definitie zal de training nooit goed genoeg zijn.”
Tesla staat ook geselecteerde eigenaren toe om te testen wat het een “volledig zelfrijdend” systeem noemt. Rajkumar zei dat ook dat moet worden onderzocht.