Het probleem van de zelfrijdende trolley: hoe zullen toekomstige AI-systemen de meest ethische keuzes maken voor ons allemaal?

Het zelfrijdende trolleyprobleem: hoe zullen toekomstige AI-systemen de meest ethische keuzes maken voor ons allemaal?

Krediet: Shutterstock

Kunstmatige intelligentie (AI) neemt al beslissingen op het gebied van zaken, gezondheidszorg en productie. Maar AI-algoritmen krijgen over het algemeen nog steeds hulp van mensen die controles toepassen en de laatste hand leggen.

Wat zou er gebeuren als AI-systemen onafhankelijke beslissingen moesten nemen, en beslissingen die leven of dood voor mensen zouden kunnen betekenen?

De popcultuur heeft lang ons algemene wantrouwen jegens AI geportretteerd. In de sci-fi-film “I, Robot” uit 2004 staat detective Del Spooner (gespeeld door Will Smith) wantrouwend tegenover robots nadat hij door een van hen werd gered van een auto-ongeluk, terwijl een 12-jarig meisje werd achtergelaten om te verdrinken. Hij zegt: “Ik was de logische keuze. Het berekende dat ik een overlevingskans van 45% had. Sarah had maar 11% kans. Dat was iemands baby – 11% is meer dan genoeg. Een mens zou dat geweten hebben.”

In tegenstelling tot mensen hebben robots geen moreel geweten en volgen ze de “ethiek” die in hen is geprogrammeerd. Tegelijkertijd is de menselijke moraliteit zeer variabel. Het “juiste” wat u in elke situatie kunt doen, hangt af van aan wie u het vraagt.

Om ervoor te zorgen dat machines ons volledig kunnen helpen, moeten we ervoor zorgen dat ze ethisch gedragen. Dus de vraag wordt: hoe beïnvloedt de ethiek van AI-ontwikkelaars en ingenieurs de beslissingen die door AI worden genomen?

De zelfrijdende toekomst

Stel je een toekomst voor met zelfrijdende auto’s die volledig autonoom zijn. Als alles werkt zoals bedoeld, is het woon-werkverkeer in de ochtend een gelegenheid om je voor te bereiden op de vergaderingen van die dag, het laatste nieuws bij te praten of achterover te leunen en te ontspannen.

Maar wat als het mis gaat? De auto nadert een verkeerslicht, maar plotseling vallen de remmen uit en moet de computer in een fractie van een seconde een beslissing nemen. Het kan uitwijken naar een nabijgelegen paal en de passagier doden, of doorgaan en de voetganger doden.

De computer die de auto bestuurt, heeft alleen toegang tot beperkte informatie die is verzameld via autosensoren en zal op basis hiervan een beslissing moeten nemen. Hoe dramatisch dit ook mag lijken, we zijn nog maar een paar jaar verwijderd van het potentieel om met dergelijke dilemma’s te worden geconfronteerd.

Zelfrijdende auto’s zullen over het algemeen veiliger rijden bieden, maar ongelukken zullen onvermijdelijk zijn – vooral in de nabije toekomst, wanneer deze auto’s de wegen zullen delen met menselijke bestuurders en andere weggebruikers.

Tesla produceert nog niet volledig autonome auto’s, hoewel het van plan is. In botsingssituaties schakelen Tesla-auto’s het Automatic Emergency Braking-systeem (AEB) niet automatisch in of uit als een menselijke bestuurder de controle heeft.

Met andere woorden, het handelen van de bestuurder wordt niet verstoord, zelfs niet als hij zelf de aanrijding veroorzaakt. In plaats daarvan, als de auto detecteert een mogelijke aanrijding, het stuurt waarschuwingen naar de bestuurder om actie te ondernemen.

In de “autopilot”-modus moet de auto echter automatisch remmen voor voetgangers. Sommigen beweren dat als de auto een aanrijding kan voorkomen, er een morele verplichting voor hem is om de acties van de bestuurder in elk scenario te negeren. Maar zouden we een autonome auto willen om deze beslissing te nemen?

Wat is een leven waard?

Wat als de computer van een auto de relatieve “waarde” van de passagier in zijn auto en van de voetganger zou kunnen evalueren? Als het besluit deze waarde in overweging zou nemen, zou het technisch gezien gewoon een kosten-batenanalyse zijn.

Dit klinkt misschien alarmerend, maar er zijn al technologieën in ontwikkeling die dit mogelijk maken. De onlangs omgedoopt tot Meta (voorheen Facebook) heeft bijvoorbeeld sterk geëvolueerde gezichtsherkenning die individuen in een scène gemakkelijk kan identificeren.

Als deze gegevens zouden worden opgenomen in het AI-systeem van een autonoom voertuig, zou het algoritme een dollarwaarde op elk leven kunnen plaatsen. Deze mogelijkheid wordt weergegeven in een uitgebreide studie uit 2018 uitgevoerd door experts van het Massachusetts Institute of Technology en collega’s.

Door het Morele machine experiment stelden onderzoekers verschillende scenario’s voor zelfrijdende auto’s voor die deelnemers dwongen te beslissen of ze een dakloze voetganger of een uitvoerende voetganger wilden doden.

Uit de resultaten bleek dat de keuzes van de deelnemers afhing van het niveau van economische ongelijkheid in hun land, waarbij meer economische ongelijkheid betekende dat ze meer geneigd waren de dakloze man op te offeren.

Hoewel niet helemaal zo geëvolueerd, wordt dergelijke gegevensaggregatie al gebruikt met China’s sociaal krediet systeem, dat bepaalt welke sociale rechten mensen hebben.

De gezondheidszorg is een ander gebied waar we AI beslissingen zullen zien nemen die mensen kunnen redden of schaden. Experts ontwikkelen steeds vaker AI om anomalieën op te sporen in medische beeldvormingen om artsen te helpen bij het prioriteren van medische zorg.

Voorlopig hebben artsen het laatste woord, maar naarmate deze technologieën steeds geavanceerder worden, wat gebeurt er dan als een arts en een AI-algoritme niet dezelfde diagnose stellen?

Een ander voorbeeld is een geautomatiseerd medicijnherinneringssysteem. Hoe moet het systeem reageren als een patiënt weigert zijn medicatie in te nemen? En hoe beïnvloedt dat de autonomie van de patiënt en de algehele verantwoording van het systeem?

AI-aangedreven drones en wapens zijn ook ethisch zorgwekkend, omdat ze de beslissing kunnen nemen om te doden. Er zijn tegenstrijdige opvattingen over de vraag of dergelijke technologieën volledig moeten worden verboden of gereguleerd. Zo kan het gebruik van autonome drones beperkt blijven tot surveillance.

Sommigen hebben opgeroepen om militaire robots met ethiek te programmeren. Maar dit roept vragen op over de aansprakelijkheid van de programmeur in het geval dat een drone per ongeluk burgers doodt.

Filosofische dilemma’s

Er zijn veel filosofische debatten geweest over de ethische beslissingen die AI zal moeten nemen. Het klassieke voorbeeld hiervan is het trolleyprobleem.

Mensen hebben vaak moeite om beslissingen te nemen die een levensveranderende uitkomst kunnen hebben. Bij het evalueren van hoe we op dergelijke situaties reageren, kunnen de door een studie gerapporteerde keuzes variëren, afhankelijk van: een reeks factoren inclusief de leeftijd, het geslacht en de cultuur van de respondent.

Als het gaat om AI-systemen, zijn de trainingsprocessen voor algoritmen van cruciaal belang voor hoe ze in de echte wereld zullen werken. Een systeem dat in het ene land is ontwikkeld, kan worden beïnvloed door de opvattingen, politiek, ethiek en moraal van dat land, waardoor het ongeschikt is voor gebruik in een andere plaats en tijd.

Als het systeem vliegtuigen zou besturen of een raket zou leiden, zou je een hoge mate van vertrouwen willen hebben dat het is getraind met gegevens die representatief zijn voor de omgeving waarin het wordt gebruikt.

Voorbeelden van fouten en vooringenomenheid bij de implementatie van technologie zijn onder meer: racistische zeepdispenser en ongepast automatisch labelen van afbeeldingen.

AI is niet “goed” of “kwaad”. De effecten die het op mensen heeft, zijn afhankelijk van de ethiek van de ontwikkelaars. Dus om er het beste van te maken, moeten we overeenstemming bereiken over wat we als ‘ethisch’ beschouwen.

Terwijl particuliere bedrijven, openbare organisaties en onderzoeksinstellingen hun eigen richtlijnen hebben voor ethische AI, hebben de Verenigde Naties aanbevolen om te ontwikkelen wat zij noemen “een alomvattend instrument voor het stellen van wereldwijde normen” om een ​​wereldwijd ethisch AI-kader te bieden – en ervoor te zorgen dat de mensenrechten worden beschermd.


Geleverd door The Conversation

Nieuwste artikelen

spot_img

Related Stories

Leave A Reply

Vul alstublieft uw commentaar in!
Vul hier uw naam in