Mensen verwachten dat AI welwillend en betrouwbaar is. Een nieuwe studie onthult dat mensen tegelijkertijd niet bereid zijn om samen te werken en compromissen te sluiten met machines. Ze maken er zelfs misbruik van.
Stel je voor dat je in de nabije toekomst op een smalle weg rijdt wanneer plotseling een andere auto uit een bocht voor je komt. Het is een zelfrijdende auto zonder passagiers erin. Zult u doorgaan en uw voorrang laten gelden, of voorrang geven om het voorbij te laten gaan? Momenteel gedragen de meesten van ons zich vriendelijk in dergelijke situaties waarbij andere mensen betrokken zijn. Zullen we diezelfde vriendelijkheid tonen tegenover autonome voertuigen?
Met behulp van methoden uit de gedragsspeltheorie heeft een internationaal team van onderzoekers van LMU München en de Universiteit van Londen grootschalige online onderzoeken uitgevoerd om te zien of mensen zich net zo coöperatief zouden gedragen met kunstmatige intelligentie (AI)-systemen als met medemensen.
Samenwerking houdt een samenleving bij elkaar. Het vereist vaak dat we compromissen sluiten met anderen en het risico accepteren dat ze ons teleurstellen. Verkeer is een goed voorbeeld. We verliezen een beetje tijd wanneer we andere mensen voor ons laten passeren en zijn woedend als anderen onze vriendelijkheid niet beantwoorden. Gaan we hetzelfde doen met machines?
De studie die is gepubliceerd in het tijdschrift iScience ontdekte dat mensen bij de eerste ontmoeting hetzelfde vertrouwen hebben in AI als bij mensen: de meesten verwachten iemand te ontmoeten die bereid is om samen te werken. Het verschil komt daarna. Mensen zijn veel minder bereid om met AI te reageren, en in plaats daarvan benutten ze de welwillendheid ervan in hun eigen voordeel. Terugkomend op het verkeersvoorbeeld: een menselijke bestuurder zou plaats maken voor een andere mens, maar niet voor een zelfrijdende auto. De studie identificeert deze onwil om compromissen te sluiten met machines als een nieuwe uitdaging voor de toekomst van mens-AI-interacties.
“We plaatsen mensen in de schoenen van iemand die voor het eerst interactie heeft met een kunstmatige agent, zoals het op de weg zou kunnen gebeuren”, legt Jurgis Karpus, Ph.D., een gedragsspeltheoreticus en een filosoof bij LMU München en de eerste auteur van de studie. “We hebben verschillende soorten sociale ontmoetingen gemodelleerd en een consistent patroon gevonden. Mensen verwachtten dat kunstmatige agenten net zo zouden samenwerken als medemensen, maar ze gaven hun welwillendheid niet zoveel terug en exploiteerden de AI meer dan mensen.”
Met perspectieven uit de speltheorie, de cognitieve wetenschap en de filosofie ontdekten de onderzoekers dat ‘algoritme-exploitatie’ een robuust fenomeen is. Ze repliceerden hun bevindingen in negen experimenten met bijna 2.000 menselijke deelnemers. Elk experiment onderzoekt verschillende soorten sociale interacties en stelt de mens in staat te beslissen of hij compromissen wil sluiten en meewerkt of zelfzuchtig handelt. Ook werden de verwachtingen van de andere spelers gemeten. In een bekend spel, het Prisoner’s Dilemma, moeten mensen erop vertrouwen dat de andere personages hen niet teleurstellen. Ze omarmden risico’s met zowel mensen als AI, maar beschaamden veel vaker het vertrouwen van de AI om meer geld te verdienen.
“Samenwerking wordt ondersteund door een wederzijdse weddenschap: ik vertrouw erop dat u aardig voor mij zult zijn, en u vertrouwt erop dat ik aardig voor u zal zijn. De grootste zorg in ons vakgebied is dat mensen machines niet zullen vertrouwen. Maar we laten zien dat ze dat wel doen!” merkt dr. Bahador Bahrami op, een sociaal neurowetenschapper aan de LMU, en een van de senior onderzoekers in het onderzoek. “Ze vinden het echter prima om de machine te laten staan, en dat is het grote verschil. Mensen melden zelfs niet veel schuldgevoelens als ze dat doen”, voegt hij eraan toe.
Bevooroordeelde en onethische AI ​​heeft veel krantenkoppen gehaald – van het examenfiasco van 2020 in het Verenigd Koninkrijk tot rechtssystemen – maar dit nieuwe onderzoek brengt een nieuwe waarschuwing met zich mee. De industrie en wetgevers streven ernaar om ervoor te zorgen dat kunstmatige intelligentie welwillend is. Maar welwillendheid kan averechts werken. Als mensen denken dat AI geprogrammeerd is om welwillend jegens hen te zijn, zullen ze minder in de verleiding komen om mee te werken. Sommige ongevallen met zelfrijdende auto’s laten misschien al voorbeelden uit de praktijk zien: bestuurders herkennen een autonoom voertuig op de weg en verwachten dat het voorrang geeft. Het zelfrijdende voertuig verwacht ondertussen normale compromissen tussen chauffeurs te behouden.”
De exploitatie van algoritmen heeft in de loop van de tijd nog meer gevolgen. “Als mensen terughoudend zijn om een ​​beleefde zelfrijdende auto vanaf een zijweg in te laten stappen, moet de zelfrijdende auto dan minder beleefd en agressiever zijn om nuttig te zijn?” vraagt ​​Jurgis Karpus.
“Welwillende en betrouwbare AI is een modewoord waar iedereen enthousiast over is. Maar het repareren van de AI is niet het hele verhaal. Als we ons realiseren dat de robot voor ons hoe dan ook coöperatief zal zijn, zullen we het gebruiken voor ons egoïstisch belang, “, zegt professor Ophelia Deroy, een filosoof en senior auteur van het onderzoek, die ook samenwerkt met het Noorse Peace Research Institute Oslo over de ethische implicaties van de integratie van autonome robotsoldaten samen met menselijke soldaten.
“Compromissen zijn de olie die de samenleving laat werken. Voor ieder van ons lijkt het slechts een kleine daad van eigenbelang. Voor de samenleving als geheel zou het veel grotere gevolgen kunnen hebben. Als niemand autonome auto’s in het verkeer laat komen, ze zullen hun eigen files aan de zijkant creëren en het transport niet gemakkelijker maken”.
Jurgis Karpus et al, Uitbuiting van algoritmen: mensen maken graag gebruik van welwillende AI, iScience (2021). DOI: 10.1016/j.isci.2021.102679
iScience
Geleverd door Ludwig Maximilian Universiteit van München