column

De vraag is of nieuwe regeltjes ons groeiende ongemak over AI-toepassingen kunnen wegnemen, stelt columnist Vanessa Evers.
 

Een groepje publieke figuren, onder wie Elon Musk, Steve Wozniak en Yuval Noah Harari, riep onlangs op om een pauze van een half jaar in te lassen voor de verdere ontwikkeling van kunstmatige intelligentie (AI). Het idee is dat overheden die tijd kunnen gebruiken voor het opstellen van regelgeving om AI inherent veilig te maken. 

AI-beleid, -regelgeving en -certificering zijn natuurlijk wenselijk, al was het maar voor ontwikkelaars om te weten welke waarden zij als richtlijn moeten nemen bij het oplossen van dilemma’s zoals het befaamde trolley­probleem: is het moreel aanvaardbaar een trein die vijf mensen dreigt aan te rijden van spoor te laten wisselen zodat die maar één persoon aanrijdt? Vertaald naar alledaagse ontwikkelproblemen: remmen voor een konijntje als er geen gevaar is voor de passagiers in de auto, of niet? Energie op het grid naar de armere wijken een beetje afknijpen om meer kosten te besparen, of niet?


Het onderliggende probleem bij AI is niet het gebrek aan regelgeving of beleid, maar het gebrek aan eenduidigheid in ethische waarden die ten grondslag moeten liggen aan dat beleid
 

De vraag is echter of nieuwe regeltjes hier de oplossing zijn. Immers, zelfs met beleid en heel veel regels hebben we als samenleving al grote moeite met dilemma’s die niets met AI te maken hebben. Kunnen we mensen in Groningen blootstellen aan risico’s om toch weer meer gas op te pompen? Is het verdedigbaar om de bevolking in en rondom IJmuiden een verhoogde kans op hart- en vaatziekten te laten lopen, zodat Tata Steel volop kan blijven draaien?

Het onderliggende probleem bij AI is niet het gebrek aan regelgeving of beleid, maar het gebrek aan eenduidigheid in ethische waarden die ten grondslag moeten liggen aan dat beleid. Als we er niet uit kunnen komen wat we belangrijker vinden, huizen die instorten of gas, en ­articuleren wat we bereid zijn voor die keuze te betalen of op te offeren, dan kom je er ook niet uit of die trein wel of niet van spoor moet wisselen. Ik wil maar zeggen: het is geen AI-dingetje.

Lang heb ik gedacht dat innovatie en wetenschappelijke doorbraken de motor van onze beschaving zijn. Neem het covid-vaccin: een wonder van de wetenschap, menselijk vernuft in z’n puurste vorm. Maar wat blijkt? Het probleem van een pandemie is niet opgelost met het vaccin. Mensen moeten dat vaccin ook nemen. En daar gaat het mis door communicatie en beleid. 

Als het gaat om mondiale wedlopen – of het nu de verspreiding van kernwapens betreft of CO2-­reductie, zijn bindende, internationale verdragen nodig. Die kant moeten we ook op met AI. Nu op AI-gebied een wereld­wijde wedloop gaande is, is het tijd voor een internationaal verdrag waarin we afspreken waar AI wel en niet voor mag worden gebruikt. Daarbij horen controlerende organen en de mogelijkheid sancties op te leggen. 

Want nu dreigt het op z’n Nederlands te gaan. We laten het een tijdje zo doorlopen en dan komt er een parlementaire enquêtecommissie die aantoont dat het toch echt fout is gegaan, waarna er een verwoede poging komt om toch maar regelgeving in te voeren en de gedupeerden te compenseren. Daarop komt dan weer een parlementaire commissie die aantoont dat de compensatie en regelingen te stroperig en zuinig zijn uitgevoerd, waarna een nieuwe commissie, enfin, u voelt hem al aankomen. 


Tekst: Vanessa Evers, hoogleraar Computerwetenschappen aan de Universiteit Twente

Vond je dit een interessant artikel, abonneer je dan gratis op onze wekelijkse nieuwsbrief.