Rana el Kaliouby was mede-oprichter en leidde de Boston-startup Affectiva, die kunstmatige intelligentie en computervisie gebruikt om stemming en emotie te analyseren.
Nu heeft ze een nieuwe baan als plaatsvervangend CEO van Smart Eye, nadat het Zweedse eye-trackingbedrijf Affectiva in juni voor $ 73,5 miljoen had gekocht.
De auto-industrie is de belangrijkste markt voor El Kaliouby en concurrenten zoals de in Australië gevestigde Seeing Machines. Autofabrikanten zetten zich schrap voor nieuwe veiligheidsregels en -normen over de hele wereld die dashboardcamera’s zouden kunnen vereisen om gevaarlijk rijgedrag te detecteren, vooral in voertuigen die gedeeltelijk zelf rijden maar nog steeds menselijke aandacht nodig hebben.
El Kaliouby zegt dat dit nog maar het begin is van waar AI-systemen in de auto naartoe gaan. Dit interview is bewerkt voor lengte en duidelijkheid.
Vraag: Over tien jaar zit een gezin in een auto. Wat zou jouw technologie kunnen doen tijdens hun reis?
A: Oké, familie zit in de auto. Je hebt twee kinderen op de achterbank. Allereerst vechten de kinderen. De auto weet dat en kan zien dat moeder, die rijdt, gefrustreerd raakt, een beetje gek, afgeleid. De auto grijpt in door inhoud voor de kinderen aan te bevelen, of via een gemoedelijke interface, een spel tussen de kinderen te bemiddelen. Ze spelen een beetje. Ze vallen in slaap. De auto kan dat zien, dus de lichten dimmen en de muziek of film gaat uit. Dan realiseert de auto zich dat moeder uitgeput is en ook begint in te dommelen, dus gaat hij in deze spraakzame modus om haar weer in te schakelen. En dan verlaat moeder de auto, vergeet dat het kind daar is en krijgt een sms met de tekst: “Oh, je bent misschien Little Baby Joe vergeten!’ Ik verzin dit ter plekke. Het kan in feite de hele cabine-ervaring personaliseren – muziek, verlichting, temperatuur, gebaseerd op weten wie er in de auto zit en wat ze doen.
V: Wat brengt Affectiva voor Smart Eye en vice versa?
A: Smart Eye is een 22 jaar oud bedrijf. Waar ze zich de afgelopen jaren op hebben gefocust – en ze zijn de onbetwiste marktleider – is het monitoren van chauffeurs. Ze kunnen heel nauwkeurig bepalen waar een persoon naar kijkt en ze volgen ook het ooggedrag. Ze kunnen herkennen wanneer een bestuurder afgeleid of slaperig is. Ze zijn gecontracteerd door 13 wereldwijde autofabrikanten. Affectiva is 12 jaar geleden ontstaan ​​uit MIT en onze focus ligt op het humaniseren van technologie door emotionele intelligentie naar machines te brengen. We voorspellen dat er een evolutie zal zijn in het toezicht op de bestuurder naar alles wat er in het voertuig gebeurt. Wat zijn hun stemming en emoties? Met welke activiteiten houden ze zich bezig? Je wordt de ogen en oren van de auto.
V: Hoe herken je iemands stemming of emoties?
A: We doen veel gezichtsanalyses, maar we zijn uitgebreid om veel lichaams-“keypoint”-tracking te doen, zodat we kunnen detecteren wat mensen daadwerkelijk doen – zit je onderuitgezakt in de auto? Ben je geagiteerd? Wij monitoren dat allemaal.
Vraag: Hoe zit het met iemands gezicht om te zien dat ze in paniek zijn?
A. Er zijn uitingen van angst. U kunt ook beginnen met het volgen van andere vitale functies, zoals uw hartslag of hartslagvariabiliteit, ademhalingsfrequentie, via een optische sensor. Dat is een richting die we uitgaan. Het is helemaal niet klaar voor prime time, maar het is iets dat Affectiva en Smart Eye onderzoeken. En als je eenmaal de basislijn van een persoon kent, kun je erachter komen of ze afwijken van die basislijn en de auto kan dat markeren.
Vraag: Hoe bescherm je je tegen zorgen dat je iemands emotie of stemming verkeerd kunt interpreteren op basis van ras, geslacht, neurodiversiteit?
A: Dit is een van de dingen die Affectiva echt ter tafel brengt. Het is iets waar we heel bewust mee bezig zijn geweest. Het begint bij de diversiteit van de data. Als je een algoritme traint met blanke mannen van middelbare leeftijd, dan zal het dat leren. De trainingsset is van cruciaal belang en het omvat alles, van raciale en etnische diversiteit tot diversiteit van gezichtsuitdrukkingen – misschien dragen mensen een bril of hijabs of hebben ze baarden. We werken samen met synthetische databedrijven om onze datasets uit te breiden en de hiaten op te vullen. Het tweede is: hoe valideer je de nauwkeurigheid van de algoritmen? Als je alleen naar nauwkeurigheid op hoog niveau kijkt, verbergt het mogelijk vooroordelen die bestaan ​​​​in specifieke subpopulaties. We ontleden de gegevens om ervoor te zorgen dat er geen vooringenomenheid binnensluipt. En tot slot, de diversiteit van het team is hoe je deze blinde vlekken overwint.
V: Hoe zit het met de privacy van mensen die niet willen worden geanalyseerd of bekeken in de auto?
A: In de automobielsector is het goede nieuws dat geen van de gegevens wordt geregistreerd. U doet alle verwerkingen on-the-fly en trekt een conclusie, bijvoorbeeld als de bestuurder slaperig is. De auto zal hopelijk reageren om de bestuurder veilig te houden. Ik denk dat er veel consumentencommunicatie en transparantie moet zijn over wat de sensor precies doet. Ik kan me voorstellen dat er scenario’s zullen zijn waarin je het kunt uitschakelen. Maar als het een veiligheidsoverweging is, zoals uw semi-autonome voertuig moet weten of u oplet, zodat het de controle heen en weer kan overdragen, kan ik me voorstellen dat u het niet mag uitschakelen.