
Multi-radarsysteem dat de afmetingen van auto’s in levend verkeer voorspelt. Rode kaders zijn de voorspellingen, blauwe kaders zijn de grondwaarheidsmetingen. Krediet: Kshitiz Bansal
Een nieuw soort radar zou het voor zelfrijdende auto’s mogelijk kunnen maken om bij slecht weer veilig te navigeren. Elektrotechnici van de University of California San Diego hebben een slimme manier ontwikkeld om de beeldvormingscapaciteit van bestaande radarsensoren te verbeteren, zodat ze nauwkeurig de vorm en grootte van objecten in de scène kunnen voorspellen. Het systeem werkte goed als het ’s nachts en in mistige omstandigheden werd getest.
Het team zal hun werk presenteren op de Sensys-conferentie van 16 tot 19 november.
Gure weersomstandigheden vormen een uitdaging voor zelfrijdende auto’s. Deze voertuigen vertrouwen op technologie zoals LiDAR en radar om te “zien” en te navigeren, maar elk heeft zijn tekortkomingen. LiDAR, dat werkt door laserstralen te weerkaatsen op omringende objecten, kan op een heldere dag een 3D-beeld met hoge resolutie schilderen, maar het kan niet zien in mist, stof, regen of sneeuw. Aan de andere kant kan de radar, die radiogolven uitzendt, bij alle weersomstandigheden zien, maar slechts een gedeeltelijk beeld van het wegbeeld vastleggen.
Betreed een nieuwe UC San Diego-technologie die het zicht van radar verbetert.
“Het is een LiDAR-achtige radar”, zegt Dinesh Bharadia, hoogleraar elektrotechniek en computertechnologie aan de UC San Diego Jacobs School of Engineering. Het is een goedkope manier om de perceptie van slecht weer te bereiken in zelfrijdende auto’s, merkte hij op. “Het samenvoegen van LiDAR en radar is ook mogelijk met onze technieken, maar radars zijn goedkoop. Op deze manier hoeven we geen dure LiDAR’s te gebruiken.”
Het systeem bestaat uit twee radarsensoren die op de motorkap zijn geplaatst en met een tussenruimte van een gemiddelde auto (1,5 meter). Het is essentieel dat twee radarsensoren op deze manier zijn gerangschikt: ze stellen het systeem in staat om meer ruimte en details te zien dan een enkele radarsensor.
Tijdens testritten op heldere dagen en nachten presteerde het systeem net zo goed als een LiDAR-sensor bij het bepalen van de afmetingen van in het verkeer rijdende auto’s. Zijn prestaties veranderden niet in tests die mistig weer simuleerden. Het team “verborg” een ander voertuig met behulp van een mistmachine en hun systeem voorspelde nauwkeurig de 3D-geometrie ervan. De LiDAR-sensor is in wezen niet geslaagd voor de test.
Twee ogen zijn beter dan één
De reden dat radar traditioneel een slechte beeldkwaliteit heeft, is dat wanneer radiogolven worden uitgezonden en van objecten worden weerkaatst, slechts een klein deel van de signalen ooit naar de sensor wordt gereflecteerd. Als gevolg hiervan verschijnen voertuigen, voetgangers en andere objecten als een schaars stel punten.
“Dit is het probleem met het gebruik van een enkele radar voor beeldvorming. Hij ontvangt slechts een paar punten om de scène weer te geven, dus de perceptie is slecht. Er kunnen andere auto’s in de omgeving zijn die je niet ziet”, aldus Kshitiz Bansal, een informatica en engineering Ph.D. student aan UC San Diego. “Dus als een enkele radar deze blindheid veroorzaakt, zal een opstelling met meerdere radars de waarneming verbeteren door het aantal punten dat wordt teruggekaatst te vergroten.”
Het team ontdekte dat een onderlinge afstand van twee radarsensoren op 1,5 meter afstand op de motorkap de optimale opstelling was. “Door twee radars op verschillende uitkijkpunten met een overlappend gezichtsveld te hebben, creëren we een gebied met een hoge resolutie, met een grote kans om de aanwezige objecten te detecteren”, zei Bansal.
Een verhaal over twee radars
Het systeem lost een ander probleem op met radar: ruis. Het is normaal om op radarbeelden willekeurige punten te zien die niet bij een object horen. De sensor kan ook zogenaamde echosignalen oppikken, dit zijn reflecties van radiogolven die niet rechtstreeks afkomstig zijn van de objecten die worden gedetecteerd.
Meer radars betekenen meer lawaai, merkte Bharadia op. Daarom heeft het team nieuwe algoritmen ontwikkeld die de informatie van twee verschillende radarsensoren kunnen samenvoegen en een nieuw beeld zonder ruis kunnen produceren.
Een andere innovatie van dit werk is dat het team de eerste dataset heeft geconstrueerd die gegevens van twee radars combineert.
“Er zijn momenteel geen publiekelijk beschikbare datasets met dit soort gegevens, van meerdere radars met een overlappend gezichtsveld”, zei Bharadia. “We hebben onze eigen gegevens verzameld en onze eigen dataset gebouwd om onze algoritmen te trainen en om te testen.”
De dataset bestaat uit 54.000 radarbeelden van rijscènes overdag en ’s nachts in live verkeer en in gesimuleerde mistomstandigheden. Toekomstig werk omvat het verzamelen van meer gegevens in de regen. Om dit te doen, moet het team eerst betere beschermhoezen voor hun hardware bouwen.
Het team werkt nu samen met Toyota om de nieuwe radartechnologie te combineren met camera’s. De onderzoekers zeggen dat dit mogelijk LiDAR zou kunnen vervangen. “Radar alleen kan ons niet de kleur, het merk of het model van een auto vertellen. Deze eigenschappen zijn ook belangrijk voor het verbeteren van de waarneming van zelfrijdende auto’s”, zei Bharadia.
Geleverd door University of California – San Diego