Peter-Paul Verbeek

De maatschappelijke discussie over technologie pingpongt vaak tussen diep wantrouwen en blind vertrouwen, stelt Peter-Paul Verbeek. Maar ten aanzien van kunstmatige intelligentie moeten we een derde weg bewandelen.

Het jaar 2019 wordt het jaar van de ethiek van kunst­matige intelligentie. Overal in de wereld werken organisaties aan gedragscodes en ethische richtlijnen. Zo ook de Europese Commissie. Haar High Level Expert Group on Artificial Intelligence publiceerde vlak voor de jaarwisseling een conceptvoorstel voor ethische richtlijnen. Kernbegrip daarin is trustworthy artificial intelligence. Een prachtige vondst: ‘vertrouwenswaardig’, voor zover dat überhaupt een Nederlands woord is. 

Daarmee legt de groep experts de vinger precies op de zere plek. Kunstmatige intelligentie, kortweg AI, vereist namelijk een nieuw soort vertrouwen tussen mens en technologie. En de consequenties daarvan reiken misschien nog wel verder dan de High Level Expert Group voorziet. 

Er is de vrees dat Google en Facebook onze privacy en democratie bedreigen, en tegelijk het vertrouwen dat we ‘ethische AI’ kunnen ontwikkelen

De maatschappelijke discussie over technologie pingpongt vaak tussen diep wantrouwen en blind vertrouwen. Kunnen we de grote technologiebedrijven wel vertrouwen en vormt technologie uiteindelijk geen bedreiging voor de kwaliteit van ons leven en de samenleving? Of moeten we juist vertrouwen op de technologische vooruitgang als oplossing voor de grote maatschappelijke vragen?

Ten aanzien van kunstmatige intelligentie zie je deze twee ­extremen ook: er is de vrees dat Google en Facebook onze privacy en democratie bedreigen, en tegelijk het vertrouwen dat we ‘ethische AI’ kunnen ontwikkelen. 

Er is een derde verbinding mogelijk tussen vertrouwen en technologie. Naast ‘vertrouwen’ en ‘wantrouwen’ bestaat er ook zoiets als ‘toevertrouwen’. En dat is in het geval van kunstmatige intelligentie van cruciaal belang.

Het is namelijk zeer wel mogelijk dat deze technologie radicale veranderingen zal brengen voor mens en maatschappij. Sommigen spreken zelfs al van de komst van Society 5.0. Na de tijd van de jagers-verzamelaars, de agrarische samenleving, de industriële samenleving en de digitale samenleving ontstaat er nu een super smart society. 

We moeten ons kritisch en creatief leren toevertrouwen

AI lijkt een nieuwe stap te zetten in het cognitieve functioneren van de mens. Het schrift heeft invloed gehad op ons geheugen. De boekdrukkunst bracht een democratisering van kennis en legde de basis voor de wetenschappelijke revolutie. Wat zal AI gaan doen met ons denken? Wat gaat er gebeuren met ons begrip van de wereld en van onszelf, onze morele en politieke opvattingen en besluiten, onze existentiële vragen en kwetsbaarheden?

Om verantwoord om te gaan met deze nieuwe golf van technologie moeten we voorbij een fundamenteel wantrouwen en een blind vertrouwen. We moeten ons kritisch en creatief leren toevertrouwen. Niet door ons maar gewillig te schikken in een onvermijdelijk lot, maar door daadwerkelijk de interactie met die technologische ontwikkelingen aan te gaan: door techniek ethisch te ontwerpen en door onszelf en de maatschappij opnieuw in te richten rondom de nieuwe cognitieve infrastructuur die AI met zich mee zal brengen.

Van onze medemensen verwachten we ook geen totale transparantie

Dit ‘kritisch toevertrouwen’ vergt dat we de eisen van transparantie en traceerbaarheid, die zo centraal staan in veel ethische codes, wat durven te verzachten. Door de verdere ontwikkeling van deep learning wordt het immers steeds minder mogelijk om het gedrag van kunstmatig intelligente systemen te herleiden tot wat er door hun ontwikkelaars in is gestopt. 

Maar dat betekent nog niet dat er geen ethiek meer ­mogelijk is. Van onze medemensen verwachten we immers ook geen totale transparantie. Hoewel we niet altijd precies weten waarom mensen doen wat ze doen, hebben we toch ethische en politieke kaders om goed met elkaar om te gaan, zodat we ons aan elkaar en aan de samenleving kunnen toevertrouwen. En juist die vorm van vertrouwen is nodig om kunst­matige intelligentie daadwerkelijk ‘ons vertrouwen waardig’ te maken.

Prof.dr.ir. Peter-Paul Verbeek is hoogleraar Filosofie van Mens en Techniek aan de Universiteit Twente.

Vond je dit een interessant artikel, abonneer je dan gratis op onze wekelijkse nieuwsbrief.