Vooruitgang op het gebied van kunstmatige intelligentie heeft het potentieel om de grenzen tussen mens en machine te vervagen en een absolute kracht te worden voor het oplossen van de problemen van de mensheid, maar brengt ook risico's met zich mee. Sterke AI heeft het potentieel om de mensheid te helpen, maar kan gaandeweg ook onverwachte bedreigingen voor de mensheid vormen.
Waarom ontwikkelen we AI? ‘Deus ex machina’ is een ensceneringstechniek die in het Griekse theater wordt gebruikt. Het verwijst naar de tussenkomst van een absolute macht die alle conflicten in een toneelstuk oplost en rechtvaardigt. Dit literaire apparaat wordt soms gebruikt in films en toneelstukken om conflicten op te lossen. Zal de AI-technologie van onze dromen dus een absolute kracht zijn die menselijke problemen zal oplossen, of een ‘ex machina’, zoals de titel van de film suggereert? De meningen hierover zijn verdeeld, maar ik behoor tot het kamp dat zich zorgen maakt over de mogelijkheid dat AI een absolute kracht wordt die over mensen heerst. Dit is niet alleen sciencefiction. We moeten zelfs diep nadenken over de toekomst van AI.
In januari van dit jaar schonk Tesla Motors CEO Elon Musk $10 miljoen aan het Future of Life Institute (FLI), een organisatie die zich toelegt op onderzoek naar AI voor mensen. De FLI is een vrijwilligersorganisatie van AI-onderzoekers uit de academische wereld, de industrie en de industrie die AI onderzoeken ten behoeve van de mens. De FLI is mede opgericht door MIT-professor Max Tegmark, en het bestuur bestaat uit vooraanstaande academici zoals Oxford University Professor Nick Bostrom en Stephen Hawking, directeur van het Centre for Theoretical Cosmology aan de Universiteit van Cambridge, evenals Demis Hasavis, oprichter van DeepMind, dat onlangs werd overgenomen door Google. Terwijl de beste bedrijven en academici ter wereld vooruitgang boeken met de ontwikkeling van AI, besteden ze ook aandacht aan de gevaren ervan. Laten we eens kijken naar wat ze bedoelen met AI en waarom het gevaarlijk zou kunnen zijn.
Er zijn twee hoofdtypen AI. Zwakke AI is gemaakt om alleen een specifieke taak uit te voeren, zoals Apple's SIRI of Google's zelfrijdende auto, Google Car. In het geval van AlphaGo, dat onlangs professionele Go-speler Lee Sedol versloeg, kan worden gezegd dat het een zwakke AI is omdat het een AI is die alleen een bepaalde taak van Go uitvoert. Aan de andere kant wordt een AI die een bepaalde taak kan uitvoeren met cognitieve vaardigheden die de mens op alle gebieden overtreffen, en niet alleen op een beperkt aantal taken, een sterke AI genoemd. In het geval van het nematodenproject, dat werd onderzocht om kunstmatig leven te creëren door de neurale netwerken van levende organismen te imiteren, wekte het de verwachting dat het ooit mogelijk zou zijn om het menselijk brein met zijn complexe neurale netwerkstructuur te imiteren. Daarom kan worden gezegd dat onderzoek naar kunstmatige neurale netwerksystemen op basis van nematoden de ontwikkeling bevordert van sterke AI die de cognitieve functies van het menselijk brein imiteert.
Het potentieel van AI beperkt zich echter niet tot technische prestaties. De komst van sterke AI heeft het potentieel om onze sociale en economische structuur fundamenteel te veranderen. Als sterke AI bijvoorbeeld de menselijke arbeid zou vervangen, zou dit tot enorme werkloosheid kunnen leiden, en zou het bestaande economische systeem met ernstige uitdagingen te maken krijgen. Deze veranderingen zijn niet alleen technologisch van aard, ze kunnen ook complexe problemen voor de samenleving als geheel veroorzaken.
Dus hoe kan AI gevaarlijk worden? Het eerste scenario is dat AI geprogrammeerd is om zelf gevaarlijke mogelijkheden te hebben. Een voorbeeld hiervan is een autonoom wapen. Als ze in handen vallen van mensen die de technologie kunnen exploiteren, zoals terroristische en criminele organisaties, kunnen ze enorme menselijke slachtoffers veroorzaken, zoals massale schietpartijen. Zelfs een zwakke AI die alleen een specifieke functie vervult, kan grote schade toebrengen aan de mensheid, en hoe geavanceerder de technologie wordt, hoe onvoorstelbaarder de schade zal zijn.
De tweede is dat zelfs als een AI wordt gemaakt om een doel te vervullen dat gunstig is voor de mens, het nog steeds een risico kan vormen voor de mensheid in de manier waarop het dat doel vervult. Een van de redenen waarom we sterke AI willen creëren, is omdat we geloven dat sterke AI, met zijn mensachtige cognitieve en denkvermogens en onbeperkte arbeid, ons zal helpen veel van onze problemen op te lossen.
Misschien kunnen sterke AI’s, zoals verwacht, veel van onze problemen helpen oplossen, zoals voedseltekorten, schaarste van hulpbronnen en economische stagnatie. Het is echter niet te voorspellen welke aanpak zij zullen volgen bij het oplossen van deze problemen. Hoe kunnen we er zeker van zijn dat ze er niet voor zullen kiezen om het aantal consumenten (mensen) te verminderen in plaats van te proberen manieren te vinden om het aanbod te vergroten om de voedsel- en hulpbronnenproblemen van de planeet op te lossen? Hoewel dit een scenario is dat geweldig zou zijn in een sciencefictionfilm, weten we niet of het altijd de juiste keuze zal zijn bij andere menselijke problemen die te maken hebben met aantasting van het milieu of ethisch oordeel.
Door het zenuwstelsel van de nematode te simuleren zijn we erin geslaagd een programma te creëren dat hetzelfde neurale netwerk in een computer heeft, dat als open source wordt verspreid en verder wordt ontwikkeld. Als je mij vraagt of een computergestuurde nematode een levend wezen kan worden genoemd, en hoe relevant dit onderzoek is voor de komst van sterke kunstmatige intelligentie, is dat moeilijk te beantwoorden. Maar als je mij zou vragen of dit het soort onderzoek is dat de mensheid nodig heeft, zou ik geen ja zeggen.
Wetenschap is op zichzelf mooi omdat zij de natuurwetten waarin wij leven probeert te begrijpen. De studie van AI is ook mooi omdat het antwoorden kan bieden op de manier waarop levende wezens, inclusief mensen, kunnen waarnemen en denken. Er is echter een onderscheid tussen mooi en goed, en mooi onderzoek is niet per definitie goed onderzoek. Als we goed onderzoek durven te definiëren, is het onderzoek dat uitsluitend positieve functies vervult zonder noemenswaardige schade toe te brengen aan de natuur, inclusief de mensheid.
Wetenschap en technologie kunnen niet altijd gescheiden worden gehouden van de samenleving, en het is ook niet iets dat mensen passief zouden moeten accepteren. Mensen zijn degenen die het stuur in handen hebben van de snelgroeiende wetenschap en technologie, en we staan op een kruispunt met AI-technologie. Het is aan de mens om te beslissen of AI-technologie een ‘ex machina’ voor de mensheid of een ‘ex machina’ boven de mensheid zal worden. Daarom is het duidelijk dat het hebben van een sceptische visie en een vage angst voor wetenschap en technologie zelf een houding is die moet worden vermeden, maar het is noodzakelijk dat zowel onderzoekers als de mensheid op het kruispunt nadenken over de richting waarin ze AI moeten ontwikkelen en zichzelf eraan herinneren van de mentaliteit van het nastreven van goed onderzoek.