Een wil om te overleven kan AI naar een hoger niveau tillen

Onderzoekers stellen dat het biologische principe van homeostase slimmere robots zou opleveren

peinzende robot

Robots met gevoelens kunnen ook geavanceerdere denkvaardigheden ontwikkelen, stellen neurowetenschappers voor.

Fictie zit vol met robots met gevoelens.

Zoals die emotionele jongen David, gespeeld door Haley Joel Osment, in de film AI. Of WALL • E, die duidelijk gevoelens had voor EVE-uh. De robot binnen Verdwaald in de ruimte klonk behoorlijk emotioneel wanneer hij Will Robinson waarschuwde voor gevaar. Om nog maar te zwijgen over al die emotionele treinwrakken, wackadoodle-robots Westworld.

Maar in het echte leven hebben robots niet meer gevoelens dan een rots ondergedompeld in novocaïne.

Er kan echter een manier zijn om robots gevoelens te geven, zeggen neurowetenschappers Kingson Man en Antonio Damasio. Bouw eenvoudig de robot met het vermogen om gevaar voor zijn eigen bestaan ​​te voelen. Het zou dan gevoelens moeten ontwikkelen om het gedrag te sturen dat nodig is om zijn eigen overleving te garanderen.

‘De robots van vandaag missen gevoelens’, schrijven Man en Damasio in een nieuw papier (abonnement vereist) in Nature Machine Intelligence. “Ze zijn niet ontworpen om de interne toestand van hun activiteiten weer te geven op een manier die hen in staat zou stellen die toestand in een mentale ruimte te ervaren.”

Dus Man en Damasio stellen een strategie voor om machines (zoals robots of mensachtige androïden) het ‘kunstmatige equivalent van gevoel’ te geven. In de kern vraagt ​​dit voorstel om machines die ontworpen zijn om het biologische principe van homeostase te respecteren. Dat is het idee dat het leven zichzelf moet reguleren om binnen een beperkt bereik van geschikte omstandigheden te blijven, zoals het binnen de limieten van levensvatbaarheid houden van temperatuur en chemische balansen. Het besef van een intelligente machine van analoge kenmerken van zijn interne toestand zou neerkomen op de robotversie van gevoelens.

Dergelijke gevoelens zouden niet alleen zelfbehoudend gedrag motiveren, denken Man en Damasio, maar zouden ook kunstmatige intelligentie inspireren om het echte werk beter na te bootsen.

Typische “intelligente” machines zijn ontworpen om een ​​specifieke taak uit te voeren, zoals het diagnosticeren van ziekten, autorijden, Go spelen of winnen Gevaar! Maar intelligentie in één arena is niet hetzelfde als de meer algemene menselijke intelligentie die kan worden ingezet om allerlei situaties het hoofd te bieden, zelfs situaties die nog nooit eerder zijn voorgekomen. Onderzoekers hebben lang gezocht naar het geheime recept om robots op een meer algemene manier slim te maken.

In de visie van Man en Damasio zijn gevoelens het ontbrekende ingrediënt.

Gevoelens komen voort uit de behoefte om te overleven. Wanneer mensen een robot in een levensvatbare staat houden (alle draden aangesloten, juiste hoeveelheid elektrische stroom, comfortabele temperatuur), hoeft de robot zich geen zorgen te maken over zijn eigen zelfbehoud. Het heeft dus geen behoefte aan gevoelens – signalen dat iets moet worden gerepareerd.

Gevoelens motiveren levende wezens om optimale toestanden te zoeken om te overleven, en helpen ervoor te zorgen dat gedrag de noodzakelijke homeostatische balans behoudt. Een intelligente machine met gevoel voor eigen kwetsbaarheid zou op dezelfde manier moeten handelen op een manier die de bedreigingen voor het bestaan ​​ervan zou minimaliseren.

Om dergelijke bedreigingen te kunnen waarnemen, moet een robot ontworpen zijn om zijn eigen interne toestand te begrijpen.

Man en Damasio, van de University of Southern California, zeggen dat de vooruitzichten voor het bouwen van machines met gevoelens zijn verbeterd door recente ontwikkelingen op twee belangrijke onderzoeksgebieden: zachte robotica en diep leren. Vooruitgang in zachte robotica kan de grondstof voor machines met gevoelens opleveren. Diepgaande leermethoden kunnen de geavanceerde berekening mogelijk maken die nodig is om die gevoelens om te zetten in bestaand gedrag.

Diep leren is een moderne afstammeling van het oude idee van kunstmatige neurale netwerken – sets van verbonden computerelementen die de zenuwcellen nabootsen die aan het werk zijn in een levend brein. Ingangen in het neurale netwerk wijzigen de sterkte van de verbindingen tussen de kunstmatige neuronen, waardoor het netwerk patronen in de ingangen kan detecteren.

Diep leren vereist meerdere neurale netwerklagen. Patronen in één laag die worden blootgesteld aan externe invoer, worden doorgegeven aan de volgende laag en vervolgens aan de volgende laag, waardoor de machine patronen in de patronen kan onderscheiden. Diep leren kan die patronen in categorieën indelen, objecten (zoals katten) identificeren of bepalen of een CT-scan tekenen van kanker of een andere ziekte onthult.

Een intelligente robot zou natuurlijk veel functies in zijn omgeving moeten identificeren en tegelijkertijd zijn eigen interne toestand moeten volgen. Door milieutoestanden computationeel weer te geven, kan een deep learning-machine verschillende inputs samenvoegen tot een coherente beoordeling van zijn situatie. Zo’n slimme machine, merken Man en Damasio op, kunnen ‘sensorische modaliteiten overbruggen’ – bijvoorbeeld leren hoe lipbewegingen (visuele modaliteit) corresponderen met vocale geluiden (auditieve modaliteit).

Evenzo kon die robot externe situaties in verband brengen met zijn interne omstandigheden – zijn gevoelens, als die er waren. Het koppelen van externe en interne omstandigheden “biedt een cruciaal stukje van de puzzel van hoe de interne homeostatische toestanden van een systeem kunnen worden verweven met zijn externe percepties en gedrag”, merken Man en Damasio op.

Het vermogen om interne staten aan te voelen zou echter niet veel uitmaken, tenzij de levensvatbaarheid van die staten kwetsbaar is voor aanvallen vanuit de omgeving. Robots van metaal maken zich geen zorgen over muggenbeten, snijwonden of indigestie. Maar als de robot gemaakt is van de juiste zachte materialen die zijn ingebed in elektronische sensoren, kan hij dergelijke gevaren detecteren, bijvoorbeeld een snee in zijn “huid” die zijn ingewanden bedreigt, en een programma starten om de blessure te herstellen.

Een robot die existentiële risico’s kan waarnemen, kan leren nieuwe beschermingsmethoden te bedenken in plaats van te vertrouwen op voorgeprogrammeerde oplossingen.

“In plaats van een robot voor elke mogelijkheid hard te moeten coderen of uit te rusten met een beperkt aantal gedragsregels, zou een robot die zich bezighoudt met zijn eigen overleving de uitdagingen die hij tegenkomt creatief kunnen oplossen”, vermoeden Man en Damasio. “Basisdoelen en waarden worden organisch ontdekt, in plaats van extrinsiek ontworpen.”

Het bedenken van nieuwe mogelijkheden voor zelfbescherming kan ook leiden tot verbeterde denkvaardigheden. Man en Damasio geloven dat het geavanceerde menselijke denken zich op die manier heeft ontwikkeld: het handhaven van levensvatbare interne toestanden (homeostase) vereiste de evolutie van een betere hersencapaciteit. ‘We beschouwen cognitie op hoog niveau als een uitvloeisel van bronnen die zijn ontstaan ​​om het oeroude biologische probleem van homeostase op te lossen’, schrijven Man en Damasio.

Het beschermen van het eigen bestaan ​​is daarom wellicht slechts de motivatie die een robot nodig heeft om uiteindelijk de menselijke algemene intelligentie te evenaren. Die motivatie doet denken aan de beroemde van Isaac Asimov wetten van robotica: Robots moeten mensen beschermen, robots moeten mensen gehoorzamen, robots moeten zichzelf beschermen. In Asimovs fictie was zelfbescherming ondergeschikt aan de eerste twee wetten. In echte toekomstige robots kunnen er dus enkele voorzorgsmaatregelen nodig zijn om mensen te beschermen tegen zelfbeschermende robots.

‘Verhalen over robots eindigen vaak slecht voor hun menselijke scheppers’, erkennen Man en Damasio. Maar zou een superslimme robot (met gevoelens) echt Terminator-achtige gevaren opleveren? ‘We stellen voor dat niet’, zeggen ze, ‘op voorwaarde dat het bijvoorbeeld niet alleen toegang heeft tot zijn eigen gevoelens, maar ook de gevoelens van anderen kan kennen – dat wil zeggen, als het empathie krijgt.’

En dus stellen Man en Damasio hun eigen regels voor robots voor: 1. Voel je goed. 2. Voel empathie.

“Aannemende dat een robot al in staat is om echt te voelen, zou een verplichte link tussen zijn gevoelens en die van anderen resulteren in zijn ethisch en sociaal gedrag”, beweren de neurowetenschappers.

Dat lijkt misschien een beetje optimistisch. Maar als het mogelijk is, is er misschien hoop op een betere toekomst. Als wetenschappers erin slagen empathie bij robots in te brengen, zou dat misschien een manier zijn om het ook bij mensen te doen.

Nieuwste artikelen

spot_img

Related Stories

Leave A Reply

Vul alstublieft uw commentaar in!
Vul hier uw naam in