
Fabricage van lichtgevoelige materialen op nanoschaal, bekend als kwantumstippen, creëerde een apparaat dat reageert om sneller te verlichten dan het menselijk oog. Het kan een revolutie teweegbrengen in autonome voertuigen. Credit: Lin et al.
In verblindend fel licht of pikzwart donker kunnen onze ogen zich binnen enkele minuten aanpassen aan extreme verlichtingsomstandigheden. Het menselijke visiesysteem, inclusief de ogen, neuronen en hersenen, kan ook leren en instellingen onthouden om zich sneller aan te passen de volgende keer dat we vergelijkbare lichtuitdagingen tegenkomen.
In een artikel gepubliceerd in Applied Physics LettersOnderzoekers van de Fuzhou University in China hebben een machine -vision -sensor gecreëerd die kwantumstippen gebruikt om zich aan te passen aan extreme veranderingen in het licht dat veel sneller is dan het menselijk oog – in ongeveer 40 seconden – door het belangrijkste gedrag van Eyes na te bootsen. Hun resultaten kunnen een spelwisselaar zijn voor robotachtige visie en autonome voertuigveiligheid.
“Kwantumstippen zijn halfgeleiders ter grootte van een nano-formaat die licht licht omzetten in elektrische signalen,” zei auteur Yun Ye.
“Onze innovatie ligt in engineering kwantumstippen om opzettelijk ladingen zoals water in een spons op te vangen, laat ze dan vrij wanneer dat nodig is-vergelijkbaar met hoe ogen lichtgevoelige pigmenten opslaan voor donkere omstandigheden.”
De snelle adaptieve snelheid van de sensor stamt uit zijn unieke ontwerp: leadsulfide kwantumstippen ingebed in polymeer- en zinkoxidelagen. Het apparaat reageert dynamisch door elektrische ladingen op te vangen of vrij te geven, afhankelijk van de verlichting, vergelijkbaar met hoe ogen energie opslaan voor het aanpassen aan duisternis.
Het gelaagde ontwerp, samen met gespecialiseerde elektroden, bleek zeer effectief in het repliceren van de menselijke visie en het optimaliseren van de lichtreacties voor de beste prestaties.
“De combinatie van kwantumstippen, die lichtgevoelige nanomaterialen zijn, en bio-geïnspireerde apparaatstructuren stelden ons in staat om neurowetenschappen en engineering te overbruggen,” zei Ye.
Niet alleen is hun apparaatontwerp effectief bij het dynamisch aanpassen van heldere en dimde verlichting, maar het presteert ook beter dan bestaande machinevisiesystemen door de grote hoeveelheid overbodige gegevens te verminderen die worden gegenereerd door huidige vision -systemen.
“Conventionele systemen verwerken visuele gegevens zonder onderscheid, inclusief irrelevante details, die de kracht verspillen en de berekening vertraagt,” zei Ye. “Onze sensor filtert gegevens bij de bron, vergelijkbaar met de manier waarop onze ogen zich concentreren op belangrijke objecten, en onze apparaat preprocesses lichte informatie om de rekenlast te verminderen, net als het menselijke netvlies.”
In de toekomst is de onderzoeksgroep van plan hun apparaat verder te verbeteren met systemen met grotere sensorarrays en edge-aI-chips, die AI-gegevensverwerking rechtstreeks op de sensor uitvoeren, of andere slimme apparaten in slimme auto’s gebruiken voor verdere toepasbaarheid bij autonoom rijden.
“Onmiddellijk gebruik voor ons apparaat bevindt zich in autonome voertuigen en robots die werken in het veranderen van lichtomstandigheden zoals van tunnels naar zonlicht gaan, maar het kan mogelijk toekomstige low-power vision-systemen inspireren,” zei Ye.
“De kernwaarde is dat machines betrouwbaar kunnen zien waar de huidige visie -sensoren falen.”
Meer informatie:
Een back-to-back gestructureerde bionische visuele sensor voor adaptieve perceptie, Applied Physics Letters (2025). Doi: 10.1063/5.0268992
Dagboekinformatie:
Applied Physics Letters
Verstrekt door American Institute of Physics