Autonome voertuigen leren rijden door anderen na te bootsen

auto verkoop

Krediet: CC0 Publiek Domein

Zelfrijdende auto’s worden aangedreven door machine learning-algoritmen die enorme hoeveelheden rijgegevens nodig hebben om veilig te kunnen functioneren. Maar als zelfrijdende auto’s zouden kunnen leren rijden op dezelfde manier als baby’s leren lopen – door anderen om hen heen te bekijken en na te bootsen – zouden ze veel minder verzamelde rijgegevens nodig hebben. Dat idee zet de Boston University-ingenieur Eshed Ohn-Bar ertoe aan een geheel nieuwe manier te ontwikkelen voor autonome voertuigen om veilige rijtechnieken te leren – door naar andere auto’s op de weg te kijken, te voorspellen hoe ze zullen reageren op hun omgeving en die informatie te gebruiken om hun eigen rijbeslissingen.

Ohn-Bar, een BU College of Engineering assistent-professor in elektrische en computertechniek en een junior faculteitsmedewerker bij het Rafik B. Hariri Institute for Computing and Computational Science & Engineering van de BU, en Jimuyang Zhang, een BU-promovendus in elektrische en computertechniek, hebben onlangs hun onderzoek gepresenteerd op de 2021 Conference on Computer Vision and Pattern Recognition. Hun idee voor het trainingsparadigma kwam voort uit de wens om het delen van gegevens en de samenwerking tussen onderzoekers in hun vakgebied te vergroten – momenteel hebben autonome voertuigen vele uren aan rijgegevens nodig om te leren hoe ze veilig kunnen rijden, maar sommige van ’s werelds grootste autobedrijven houden hun enorme hoeveelheden gegevens privé om concurrentie te voorkomen.

“Elk bedrijf doorloopt hetzelfde proces van auto’s nemen, sensoren erop plaatsen, chauffeurs betalen om de voertuigen te besturen, gegevens verzamelen en de auto’s leren rijden”, zegt Ohn-Bar. Door die rijgegevens te delen, kunnen bedrijven sneller veilige autonome voertuigen creëren, waardoor iedereen in de samenleving kan profiteren van de samenwerking. Kunstmatig intelligente aandrijfsystemen hebben zoveel data nodig om goed te werken, zegt Ohn-Bar, dat geen enkel bedrijf dit probleem alleen kan oplossen.

“Miljarden mijlen [of data collected on the road] zijn slechts een druppel in een oceaan van echte gebeurtenissen en diversiteit”, zegt Ohn-Bar. “Toch kan een ontbrekend gegevensmonster leiden tot onveilig gedrag en een mogelijke crash.”

Het door de onderzoekers voorgestelde machine learning-algoritme werkt door de gezichtspunten en blinde vlekken van andere nabijgelegen auto’s te schatten om een ​​kaart in vogelvlucht van de omgeving te creëren. Deze kaarten helpen zelfrijdende auto’s om obstakels te detecteren, zoals andere auto’s of voetgangers, en om te begrijpen hoe andere auto’s draaien, onderhandelen en wijken zonder ergens tegenaan te botsen.

Door deze methode leren zelfrijdende auto’s door de acties van omringende voertuigen te vertalen in hun eigen referentiekaders – hun door machine learning-algoritmen aangedreven neurale netwerken. Deze andere auto’s kunnen door mensen bestuurde voertuigen zijn zonder sensoren, of auto-gestuurde voertuigen van een ander bedrijf. Aangezien observaties van alle omringende auto’s in een scène centraal staan ​​in de training van het algoritme, stimuleert dit ‘leren door te kijken’-paradigma het delen van gegevens en bijgevolg veiliger autonome voertuigen.

Ohn-Bar en Zhang hebben hun ‘kijk en leer’-algoritme getest door autonome auto’s die erdoor worden bestuurd door twee virtuele steden te laten navigeren: een met eenvoudige bochten en obstakels die vergelijkbaar zijn met hun trainingsomgeving, en een andere met onverwachte wendingen, zoals kruispunten met vijf richtingen. In beide scenario’s ontdekten de onderzoekers dat hun zelfrijdende neurale netwerk maar heel weinig ongelukken veroorzaakt. Met slechts een uur aan rijgegevens om het machine learning-algoritme te trainen, kwamen de autonome voertuigen 92 procent van de tijd veilig aan op hun bestemming.

“Hoewel eerdere beste methoden uren nodig hadden, waren we verrast dat onze methode veilig kon leren rijden met slechts 10 minuten aan rijgegevens”, zegt Ohn-Bar.

Deze resultaten zijn veelbelovend, zegt hij, maar er zijn nog verschillende openstaande uitdagingen bij het omgaan met ingewikkelde stedelijke omgevingen. “Het is erg moeilijk om rekening te houden met drastisch verschillende perspectieven over de bekeken voertuigen, ruis en occlusie in sensormetingen en verschillende bestuurders”, zegt hij.

Vooruitkijkend zegt het team dat hun methode om autonome voertuigen te leren zelfrijdend te zijn, ook in andere technologieën kan worden gebruikt. “Bezorgrobots of zelfs drones kunnen allemaal leren door naar andere AI-systemen in hun omgeving te kijken”, zegt Ohn-Bar.


Meer informatie:
Jimuyang Zhang et al, Leren door te kijken, arXiv:2106.05966 [cs.CV] arxiv.org/abs/2106.05966

Geleverd door de Universiteit van Boston

Nieuwste artikelen

spot_img

Related Stories

Leave A Reply

Vul alstublieft uw commentaar in!
Vul hier uw naam in