Robotvoertuigen worden al decennia lang in gevaarlijke omgevingen gebruikt, vanaf de ontmanteling van de Kerncentrale van Fukushima of inspecteren onderwater energie-infrastructuur in de Noordzee. Meer recentelijk, autonome voertuigen van boten naar karren voor boodschappenbezorgdiensten hebben de zachte overgang gemaakt van onderzoekscentra naar de echte wereld met zeer weinig hik.
Toch is de beloofde komst van zelfrijdende auto’s niet verder gekomen dan de testfase. En in een proefrit van een zelfrijdende auto van Uber in 2018, een voetganger werd gedood bij het voertuig. Hoewel deze ongevallen elke dag gebeuren wanneer mensen achter het stuur zitten, houdt het publiek zelfrijdende auto’s aan veel hogere veiligheidsnormen, waarbij eenmalige ongevallen worden geïnterpreteerd als bewijs dat deze voertuigen te onveilig zijn om op de openbare weg los te laten.
Het programmeren van de perfecte zelfrijdende auto die altijd de veiligste beslissing neemt, is een enorme en technische taak. In tegenstelling tot andere autonome voertuigen, die over het algemeen worden uitgerold in streng gecontroleerde omgevingen, moeten zelfrijdende auto’s functioneren in het eindeloos onvoorspelbare wegennet en snel veel complexe variabelen om veilig te blijven.
Geïnspireerd door de wegcodewerken we aan een reeks regels die zelfrijdende auto’s helpen om in elk denkbaar scenario de veiligste beslissingen te nemen. Controleren of deze regels werken, is de laatste wegversperring die we moeten overwinnen om betrouwbare zelfrijdende auto’s veilig op onze wegen te krijgen.
Asimovs eerste wet
Sciencefictionauteur Isaac Asimov schreef de “drie wetten van de robotica” in 1942. De eerste en belangrijkste wet luidt: “Een robot mag een mens niet verwonden of, door niets te doen, een mens schade toebrengen.” Bij zelfrijdende auto’s mensen verwonden, ze overtreden duidelijk deze eerste wet.
Wij bij de Nationaal Robotarium zijn toonaangevend onderzoek dat dat moet garanderen zelfrijdende voertuigen zal altijd beslissingen nemen die in overeenstemming zijn met deze wet. Een dergelijke garantie zou de oplossing bieden voor de zeer ernstige veiligheidsproblemen die verhinderen dat zelfrijdende auto’s wereldwijd opstijgen.
AI-software is eigenlijk best goed in het leren van scenario’s waarmee het nog nooit is geconfronteerd. Gebruik makend van “neurale netwerken“die hun inspiratie halen uit de lay-out van het menselijk brein, kan dergelijke software patronen in gegevens herkennen, zoals de bewegingen van auto’s en voetgangers, en deze patronen vervolgens oproepen in nieuwe scenario’s.
Maar we moeten nog steeds bewijzen dat alle veiligheidsregels die aan zelfrijdende auto’s worden geleerd, in deze nieuwe scenario’s zullen werken. Om dit te doen, kunnen we ons wenden tot formele verificatie: de methode die computerwetenschappers gebruiken om te bewijzen dat een regel werkt onder alle omstandigheden
In de wiskunde kunnen regels bijvoorbeeld bewijzen dat x + y gelijk is aan y + x zonder elke mogelijke waarde van x en y te testen. Formele verificatie doet iets soortgelijks: het stelt ons in staat om te bewijzen hoe AI-software op verschillende scenario’s zal reageren zonder dat we elk scenario dat zich op de openbare weg zou kunnen voordoen, uitvoerig hoeven te testen.
Een van de meer opmerkelijke recente successen in het veld is de verificatie van een AI-systeem dat neurale netwerken gebruikt om botsingen tussen autonoom vliegtuig Onderzoekers hebben met succes formeel geverifieerd dat het systeem altijd correct zal reageren, ongeacht de horizontale en verticale manoeuvres van het betrokken vliegtuig.
Snelwegcodering
Menselijke chauffeurs volgen een wegcode om alle weggebruikers veilig te houden, waarbij het menselijk brein vertrouwd is om deze regels te leren en ze verstandig toe te passen in talloze realistische scenario’s. We kunnen zelfrijdende auto’s ook de wegcode leren. Dat vereist dat we elke regel in de code ongedaan maken, de neurale netwerken van voertuigen leren begrijpen hoe ze elke regel moeten gehoorzamen, en dan Verifieer dat er kan op worden vertrouwd dat ze deze regels onder alle omstandigheden veilig naleven.
De uitdaging om te controleren of deze regels veilig zullen worden gevolgd, is echter gecompliceerd bij het onderzoeken van de gevolgen van de uitdrukking “mag nooit” in de wegcode. Om een zelfrijdende auto in een bepaald scenario even reactief te maken als een menselijke bestuurder, moeten we dit beleid zo programmeren dat rekening wordt gehouden met nuance, gewogen risico’s en het incidentele scenario waarin verschillende regels in direct conflict zijn, waardoor de auto negeer een of meer van hen.
Zo’n taak kan niet alleen aan programmeurs worden overgelaten; er is input nodig van advocaten, beveiligingsexperts, systeemingenieurs en beleidsmakers. Binnen onze nieuw gevormde AISEC-project, ontwerpt een team van onderzoekers een tool om het soort interdisciplinaire samenwerking mogelijk te maken dat nodig is om ethische en wettelijke normen voor zelfrijdende auto’s te creëren.
Zelfrijdende auto’s leren perfect te zijn, zal een dynamisch proces zijn: afhankelijk van hoe juridische, culturele en technologische experts perfectie in de loop van de tijd definiëren. Met dit in het achterhoofd wordt de AISEC-tool gebouwd, die een “missiecontrolepaneel” biedt om de meest succesvolle regels voor zelfrijdende auto’s te monitoren, aan te vullen en aan te passen, die vervolgens ter beschikking zullen worden gesteld van de industrie.
We hopen tegen 2024 het eerste experimentele prototype van de AISEC-tool af te leveren. Maar we moeten nog creëren adaptieve verificatiemethoden om de resterende veiligheids- en beveiligingsproblemen aan te pakken, en het zal waarschijnlijk jaren duren voordat deze zijn gebouwd en geïntegreerd in zelfrijdende auto’s.
Ongevallen met zelfrijdende auto’s zorgen altijd voor krantenkoppen. Een zelfrijdende auto die een voetganger herkent en 99% van de tijd stopt voordat hij hem raakt, is een reden om te vieren in onderzoekslaboratoria, maar een moordmachine in de echte wereld. Door robuuste, verifieerbare veiligheidsregels voor zelfrijdende auto’s te maken, proberen we die 1% van de ongevallen tot het verleden te laten behoren.
Geleverd door The Conversation