Kunstmatige intelligentie is de afgelopen jaren extreem populair geworden, maar kan niet echt redeneren en kent geen context of causaliteit. Onderzoekers op universiteiten, ook in Nederland, werken hard om daar verandering in te brengen. Op weg naar een AI die net zo slim is als de mens. 

‘Er is geen enkele reden waarom een kunstmatig brein de mens niet zou kunnen evenaren. De hersenen zijn immers ook maar een netwerk, dat je uiteindelijk na kan bouwen.’ Max Welling, hoogleraar Machine Learning aan de Universiteit van Amsterdam, laat er geen twijfel over bestaan. Als we genoeg tijd en geld hebben is het geen probleem om een AI-brein te bouwen. ‘Fysiek staat niks in de weg, tenzij je gelooft in een ziel of iets anders ontastbaars.’ 

Wanneer zo’n geavanceerd computerbrein er is, dat weet echter niemand. Het zal in ieder geval nog decennia duren. Maar de eerste stapjes naar een menselijker brein worden nu al gezet. Aan de Radboud Universiteit Nijmegen onderzoekt men bijvoorbeeld of een robot causaliteit kan leren. Kan hij in een filmpje bedenken wat er gaat gebeuren nadat een bal een flesje aantikt? Voor mensen is dat een fluitje van een cent (de fles valt om), maar een robot heeft nog geen manier om zo te redeneren.
 

Voorkennis

Welling ziet een toekomst voor zich waar robots niet meer alles leren aan de hand van data, zoals nu het geval is. Die methode wordt te langzaam als een AI een heleboel dingen tegelijk moet bedenken. ‘Basiskennis over natuurwetten kan bijvoorbeeld worden ingeprogrammeerd.’

De techniek om dat soort kennis in te bouwen bestaat al lang, maar was minder populair. Juist omdat technieken als deep learning, die uit rauwe data patronen ontwaren, zo goed werkten. Dat gaat de komende jaren veranderen, denken de experts. 

Ondertussen zetten bedrijven echter nog vol in op machine learning met data. De algoritmes worden verbeterd zodat je ook met weinig data een computer kunt trainen. Bij Google zoeken de onderzoekers naar onverwachte toepassingsgebieden voor bijvoorbeeld beeldherkenning.
 

Vooroordelen verdwijnen

Dit alles roept natuurlijk vragen op over de lessen die computers leren van de data. Vooringenomenheid, seksisme of racisme liggen op de loer als de algoritmes dat soort zaken niet herkennen in de data. Maar als algoritmes straks causaliteit begrijpen, wordt het makkelijker om te ontdekken hoe een bepaalde vooringenomenheid in het programma sloop. 

Het is de vraag of die innovaties snel genoeg komen voor de huidige generatie AI. Maar als de toekomstige innovatie ervoor zorgt dat kunstmatige intelligentie op nog meer plekken wordt toegepast, is het belangrijk om een ingebouwde beveiliging tegen negatieve ontwikkelingen te hebben. Die is er nu vaak nog niet, maar bijna elk onderzoek hoopt de ‘black box’ van AI een klein beetje inzichtelijker te maken.

Meer lezen over kunstmatige intelligentie?

Wil je het volledige verhaal lezen over kunstmatige intelligentie in het novembernummer van De Ingenieur? Koop dan de digitale versie voor € 7,50, of neem - met een flinke korting van 25 %! - een digitaal jaarabonnement van 12 nummers voor € 69,-.

Beeld: MartinThoma

Vond je dit een interessant artikel, abonneer je dan gratis op onze wekelijkse nieuwsbrief.