De vurige crash van een Tesla in de buurt van Houston zonder iemand achter het stuur, wordt onder de loep genomen door twee federale agentschappen die nieuwe regulering van elektronische systemen kunnen introduceren die bepaalde rijtaken op zich nemen.
De National Highway Traffic Safety Administration en de National Transportation Safety Board zeiden maandag dat ze teams zouden sturen om de zaterdagnachtcrash te onderzoeken op een woonweg waarbij twee mannen in een Tesla Model S omkwamen.
Lokale autoriteiten zeiden dat een man op de passagiersstoel werd gevonden, terwijl een andere achterin zat. Ze geven huiszoekingsbevelen uit in de sonde, die zullen bepalen of het gedeeltelijk geautomatiseerde systeem van Tesla’s Autopilot in gebruik was. De automatische piloot kan een auto in het midden van zijn rijstrook houden, een afstand bewaren tot de auto’s ervoor, en kan in bepaalde omstandigheden zelfs automatisch van rijstrook wisselen.
Op Twitter maandag schreef Tesla CEO Elon Musk dat datalogs “tot dusver hersteld” laten zien dat Autopilot niet was ingeschakeld en dat “Full Self-Driving” niet voor het voertuig was gekocht. Hij beantwoordde de op Twitter gestelde vragen van journalisten niet.
In het verleden heeft de NHTSA, die de bevoegdheid heeft om autofabrikanten te reguleren en terugroepacties voor defecte voertuigen te zoeken, een hands-off benadering gekozen voor het reguleren van gedeeltelijke en volledig geautomatiseerde systemen uit angst de ontwikkeling van veelbelovende nieuwe functies te belemmeren.
Maar sinds maart heeft het bureau het onderzoek naar Tesla’s opgevoerd en teams naar drie crashes gestuurd. Het heeft de afgelopen jaren 28 Tesla-crashes onderzocht, maar tot dusverre vertrouwde het op vrijwillige veiligheidsvoorschriften van auto- en technologiebedrijven.
“Nu er een nieuwe administratie is, herzien we de regelgeving rond autonome voertuigen”, zei het bureau vorige maand.
Critici van het bureau zeggen dat de regelgeving – vooral die van Tesla – al lang geleden had moeten zijn, aangezien de geautomatiseerde systemen steeds dichterbij komen om volledig autonoom te worden. Momenteel zijn er echter geen specifieke voorschriften en zijn er geen volledig zelfrijdende systemen beschikbaar voor verkoop aan consumenten in de VS.
De vraag is of Musk de mogelijkheden van zijn systemen te veel heeft verkocht door de naam Autopilot te gebruiken of klanten te vertellen dat “Full Self-Driving” dit jaar beschikbaar zal zijn.
“Elon is totaal onverantwoordelijk geweest”, zegt Alain Kornhauser, faculteitsvoorzitter van autonome voertuigtechniek aan Princeton University. Musk, zei hij, heeft de droom verkocht dat de auto’s zelf kunnen rijden, hoewel Tesla in de kleine lettertjes zegt dat ze er niet klaar voor zijn. “Het is geen spel. Dit zijn serieuze dingen.”
Tesla, dat zijn mediarelatiesbureau heeft ontbonden, reageerde maandag ook niet op verzoeken om commentaar. Zijn aandeel daalde 3,4% in het licht van publiciteit over de crash.
In december, voordat de voormalige president Donald Trump zijn ambt verliet, zocht de NHTSA openbaar commentaar op regelgeving. Transportsecretaris Elaine Chao, wiens afdeling NHTSA omvatte, zei dat het voorstel de veiligheid zou aanpakken “zonder de innovatie in de ontwikkeling van geautomatiseerde rijsystemen te belemmeren.”
Maar haar vervanger onder president Joe Biden, Pete Buttigieg, gaf voor het Congres aan dat er misschien verandering zou komen.
“Ik zou willen suggereren dat het beleidskader in de VS de technologieplatforms niet echt heeft ingehaald”, zei hij vorige maand. “Dus we zijn van plan daar veel aandacht aan te besteden en alles te doen wat we kunnen binnen onze autoriteiten”, zei hij, eraan toevoegend dat het bureau mogelijk met het Congres over deze kwestie zal samenwerken.
Tesla heeft ernstige problemen gehad met Autopilot, dat betrokken was bij verschillende dodelijke ongevallen waarbij het niet stopte voor trekkers die ervoor overstaken, noodvoertuigen stopten of een snelwegversperring. De NTSB, die alleen aanbevelingen kan doen, vroeg NHTSA en Tesla het systeem te beperken tot wegen waarop het systeem veilig kan werken, en dat Tesla een robuuster systeem installeert om bestuurders te controleren om er zeker van te zijn dat ze opletten. Noch Tesla, noch het bureau kwamen in actie en kregen kritiek en schuld voor een van de crashes van de NTSB.
Missy Cummings, een professor in elektrische en computertechniek aan de Duke University die geautomatiseerde voertuigen bestudeert, zei dat de crash in Texas een keerpunt is voor NHTSA.
Ze is niet optimistisch dat het bureau iets substantieel zal doen, maar hoopt dat de crash verandering zal brengen. “Tesla heeft al zo lang zo’n gratis pas”, zei ze.
Frank Borris, een voormalig hoofd van NHTSA’s Office of Defects Investigation en die nu een veiligheidsadviesbureau runt, zei dat het bureau in een moeilijke positie verkeert vanwege een traag, verouderd regelgevingsproces dat de snel ontwikkelende technologie niet kan bijhouden.
De systemen zijn veelbelovend om de veiligheid te verbeteren, zei Borris. Maar het werkt ook met “wat een verouderde regelgevende regel is die een proces afkondigt dat jaren kan duren”.
Onderzoekers in de zaak Houston hebben niet vastgesteld hoe snel de Tesla reed op het moment van de crash, maar Harris County Precinct Four Constable Mark Herman zei dat het een hoge snelheid was. Hij zou niet zeggen of er bewijs was dat iemand met het systeem van Tesla had geknoeid om de bestuurder te volgen, die kracht van handen op het stuur detecteert. Het systeem zal waarschuwingen geven en uiteindelijk de auto uitschakelen als het geen handen detecteert. Maar critici zeggen dat het systeem van Tesla gemakkelijk voor de gek kan worden gehouden en dat het wel een minuut kan duren voordat het is uitgeschakeld.
Het bedrijf heeft in het verleden gezegd dat bestuurders die Autopilot en het “Full Self-Driving Capability” -systeem van het bedrijf gebruiken, op elk moment klaar moeten zijn om in te grijpen, en dat geen van beide systemen de auto’s zelf kan besturen.
Zondag tweette Musk dat het bedrijf een veiligheidsrapport had uitgebracht uit het eerste kwartaal waaruit blijkt dat Tesla met Autopilot bijna 10 keer minder kans heeft om te crashen dan het gemiddelde voertuig met een mens die het bestuurt.
Maar Kelly Funkhouser, hoofd van connected en geautomatiseerde voertuigtests voor Consumer Reports, zei dat de cijfers van Tesla in het verleden onnauwkeurig waren en moeilijk te verifiëren zijn zonder onderliggende gegevens.
“Je hoeft alleen maar op hun woord te geloven”, zei Funkhouser, eraan toevoegend dat Tesla niet zegt hoe vaak het systeem faalde maar niet crashte, of wanneer een bestuurder het niet overnam.
Funkhouser zei dat het tijd is voor de overheid om in te grijpen, prestatienormen vast te stellen en een grens te trekken tussen gedeeltelijk geautomatiseerde systemen waarvoor chauffeurs moeten ingrijpen en systemen die zichzelf kunnen besturen.
“Er is geen metriek, er is geen ja of nee, zwart of wit,” zei ze. Ze vreest dat Tesla beweert dat het niet gaat om het testen van autonome voertuigen of het op de weg zetten van zelfrijdende auto’s, terwijl ze “wegkomt met het gebruik van de algemene populatie van Tesla-eigenaren als proefkonijnen om het systeem te testen”.