Tesla’s behandeling van rembug in openbare zelfrijdende test roept alarmen op

tesla

Tegoed: Unsplash/CC0 Publiek domein

Tesla heeft op 23 oktober een nieuwe versie van de experimentele softwaresuite uitgebracht die het Full Self-Driving noemt voor goedgekeurde stuurprogramma’s via een “over-the-air” -update.

De volgende ochtend hoorde Tesla dat de update het gedrag van auto’s had veranderd op een manier die de ingenieurs van het bedrijf niet hadden bedoeld.

In een terugroeprapport aan de federale veiligheidsinstanties van 29 oktober stelde Tesla de problemen als volgt: het bedrijf ontdekte een softwareprobleem dat “negatieve detectie van objectsnelheden kan produceren wanneer andere voertuigen aanwezig zijn.”

In alledaags Engels werd het automatische remsysteem van Tesla ingeschakeld zonder duidelijke reden, waardoor auto’s snel afremden terwijl ze over de snelweg reden, waardoor ze het risico liepen achterop te raken. De waarschuwingssignalen van de voorwaartse botsing rinkelden ook, hoewel er geen naderende botsing was om voor te waarschuwen.

Het bedrijf zei dat er geen crashes of gewonden zijn gemeld als gevolg van de storing. Toch laat het incident zien hoe ingewikkeld deze systemen zijn: zelfs een kleine wijziging aan een onderdeel van het systeem kan van invloed zijn op de werking van iets dat zo belangrijk maar schijnbaar eenvoudig is als automatisch remmen. Het incident roept de vraag op of er een veilige manier is om zelfrijdende voertuigen massaal te testen op de openbare weg, zoals Tesla doet.

Tesla’s reactie op de glitch roept zijn eigen zorgen op. Terwijl de technici werkten om de software te repareren, hebben ze het automatische remmen en de waarschuwing voor voorwaartse botsingen voor de softwaretesters in het weekend uitgeschakeld, aldus het bedrijf. Volgens talrijke berichten op Twitter werden eigenaren niet geïnformeerd dat die veiligheidssystemen tijdelijk waren gedeactiveerd, maar kwamen ze er alleen achter door door het menu op de dashboardschermen van hun auto te scrollen.

Op 25 oktober had Tesla een software-fix uitgeschakeld en gezapt naar 11.704 chauffeurs die deelnamen aan het Full Self-Driving-programma.

Tesla, dat zijn afdeling mediarelaties heeft ontbonden, was niet bereikbaar voor commentaar.

Tesla’s Full Self-Driving-programma is de poging van het bedrijf om een ​​auto zonder bestuurder te ontwikkelen. Het verschilt aanzienlijk van het rijhulpsysteem dat Autopilot wordt genoemd. De laatste, geïntroduceerd in 2015, automatiseert cruisecontrol, besturing en rijstrookwisseling.

Autopilot is het onderwerp van een federaal veiligheidsonderzoek naar de reden waarom een ​​dozijn Tesla’s is gecrasht in politieauto’s en andere hulpverleningsvoertuigen die langs de weg geparkeerd staan. Die crashes resulteerden in 17 gewonden en één dode.

Onderzoekers proberen erachter te komen waarom Tesla’s automatische noodremsystemen blijkbaar niet inschakelden om dergelijke crashes te voorkomen of te verminderen. De National Highway Transportation Safety Administration onderzoekt welke systeemsoftware-elementen verantwoordelijk zijn voor automatisch remmen wanneer een auto op Autopilot staat en een crash dreigt. Experts hebben de mogelijkheid geopperd dat Tesla automatisch remmen onderdrukt wanneer Autopilot is ingeschakeld, mogelijk om fantoomremmen te voorkomen van het soort dat bestuurders ervaren na de Full Self-Driving-update.

Tesla’s automatische noodremproblemen beginnen de rechtbanken binnen te sluipen. Een proces dat in 2022 moet beginnen, eist schadevergoeding van Tesla voor een Autopilot-gerelateerde crash waarbij Apple-directeur Walter Huang in 2018 om het leven kwam op een snelweg in Mountain View, Californië. Volgens claims die in de rechtszaak zijn gedaan, is Huang’s Tesla Model X “ontworpen, gebouwd en geïntroduceerd in de handelsstroom zonder te zijn uitgerust met een effectief automatisch noodremsysteem.”

Volgens een crashrapport van de National Transportation Safety Board werkte niet alleen het automatische remsysteem niet, maar kwam de auto ook op een betonnen aanslag terecht.

Tesla heeft Full Self-Driving gefactureerd als het hoogtepunt van zijn streven om een ​​auto te maken die zichzelf naar elke bestemming kan navigeren zonder input van een menselijke bestuurder. Tesla-topman Elon Musk belooft al jaren dat Tesla’s zonder bestuurder op handen zijn.

De regelgeving voor het gebruik van dergelijke technologie op openbare wegen is in het hele land slordig. Er is geen federale wet – wetgeving over technologie zonder bestuurder is jarenlang in het Congres gegomd, en er wordt niet snel actie verwacht.

En hoewel Californië vereist dat bedrijven die technologie zonder bestuurder op de openbare weg testen, zelfs kleine crashes en systeemstoringen melden aan het State Department of Motor Vehicles, doet Tesla dit niet, volgens DMV-records. Bedrijven zoals Argo AI, Waymo, Cruise, Zoox, Motional en vele anderen voldoen aan de DMV-regelgeving; Tesla niet, blijkt uit DMV-records. The Times heeft de afgelopen maanden herhaaldelijk gevraagd om afdelingsdirecteur Steve Gordon te spreken om uit te leggen waarom Tesla een pas krijgt, maar elke keer wordt hij als niet beschikbaar beschouwd.

In mei kondigde de DMV een herziening aan van Tesla’s marketingpraktijken rond Full Self-Driving. De afdeling heeft geweigerd om de zaak te bespreken, behalve dan te zeggen, zoals dinsdag, dat de beoordeling doorgaat.

Net als Tesla gebruiken andere bedrijven die autonome rijsystemen ontwikkelen menselijke chauffeurs om toezicht te houden op tests op de openbare weg. Maar waar ze opgeleide chauffeurs in dienst hebben, gebruikt Tesla zijn klanten.

Tesla brengt klanten $ 10.000 in rekening voor toegang tot periodieke iteraties van Full Self-Driving Capability-software. Het bedrijf zegt dat het bètatestrijders kwalificeert door hun rijgedrag te controleren en een veiligheidsscore toe te passen, maar heeft niet duidelijk gemaakt hoe het systeem is ontwikkeld.

YouTube staat vol met tientallen video’s waarin Tesla-bètatestsoftware wordt getoond die auto’s in tegenliggers of andere gevaarlijke situaties bestuurt. Toen een bètatestauto probeerde de weg over te steken in een ander voertuig, merkte een passagier in een video op: “Het heeft ons bijna gedood”, en de bestuurder zei in de video: “FSD, het probeerde ons te vermoorden.”

Toen dergelijke video’s verschenen, begon Tesla van bètatesters te eisen dat ze geheimhoudingsovereenkomsten ondertekenen. Maar NHTSA stuurde Tesla een strenge brief waarin de overeenkomsten “onaanvaardbaar” werden genoemd en het plaatsen van video’s werd hervat. Het bureau zei dat het vertrouwt op feedback van klanten om de veiligheid van auto’s te bewaken.

De terugroepactie die het gevolg was van de automatische rembug – met behulp van over-the-air software, geen bezoek aan de dealer nodig – markeert het begin van een grote verandering in het aantal terugroepacties dat wordt afgehandeld. Tesla heeft het voortouw genomen in de levering van autosoftware en andere autofabrikanten proberen die achterstand in te halen.

Vrijwillige terugroepacties zijn een zeldzame gebeurtenis bij Tesla. In september hekelde NHTSA het bedrijf voor het leveren van software die bedoeld was om Tesla Autopilot te helpen knipperende noodlichten te herkennen in de nasleep van het onderzoek naar ongevallen met noodvoertuigen van het bureau. NHTSA vertelde het bedrijf dat veiligheidsoplossingen gelden als een terugroepactie, of ze nu via de ether worden afgeleverd of dat een dealerbezoek vereist is. (Over-the-air-software wordt rechtstreeks aan een auto geleverd via zendmasten of wifi.) Naarmate andere fabrikanten over-the-air software-updates toepassen, zullen dergelijke terugroepacties vaker voorkomen.

Federale veiligheidsregelgevers beginnen pas de ingrijpende veranderingen te begrijpen die robottechnologie en de bijbehorende animatiesoftware teweegbrengen. NHTSA heeft onlangs Missy Cummings, expert op het gebied van mens-machine-interactie van Duke University, benoemd tot senior adviseur voor veiligheid.

“Het probleem is dat de NHTSA zich in het verleden heeft gericht op mechanische systemen”, zegt Junko Yoshida, hoofdredacteur van het Ojo-Yoshida-rapport, een nieuwe publicatie die “de bedoelde en onbedoelde gevolgen van innovatie onderzoekt.”

In een artikel met de titel “When Teslas Crash, ‘Uh-Oh’ Is Not Enough”, schrijft ze: “Tesla’s gedrag tot nu toe maakt duidelijk dat er consequente veranderingen zijn in NHTSA’s regelgevend toezicht op geavanceerde rijhulpsystemen.”

Gevraagd om commentaar, zei NHTSA dat het bureau “zijn gesprekken met Tesla zal voortzetten om ervoor te zorgen dat elk veiligheidstekort onmiddellijk wordt erkend en aangepakt in overeenstemming met de National Traffic and Motor Vehicle Safety Act.”


Nieuwste artikelen

spot_img

Related Stories

Leave A Reply

Vul alstublieft uw commentaar in!
Vul hier uw naam in