Het standpunt van de Nederlandse regering leidt er toe dat landen die autonome wapens willen ontwikkelen vrij spel krijgen. Dat stelde de delegatie van de campagne Stop Killer Robots vandaag in een gesprek met de Tweede Kamer.

Hoe kan het dat Nederland, dat zo’n toonaangevende rol speelde in de internationale diplomatie tegen het gebruik van landmijnen en clusterbommen, nu zo afwezig is als het gaat om de ontwikkeling van autonome wapens? Uit de mond van Jody Williams, die in 1997 de Nobelprijs voor de Vrede ontving vanwege haar werk voor de internationale campagne tegen landmijnen, komt zo’n vraag bij de vier aanwezige Kamerleden duidelijk aan. Williams: ‘Landmijnen en clusterbommen moeten we uit het slagveld zien weg te halen, terwijl we nu de kans hebben om te voorkomen dat autonome wapens het slagveld betreden.’ Williams maakte deel uit van de Stop Killer Robots delegatie die vandaag een gesprek had met de buitenlandcommissie van de Tweede Kamer.

Aanleiding voor dat gesprek is het kabinetsstandpunt over autonome wapens, dat letterlijk het Advies over autonome wapens volgt dat eerder was uitgebracht door twee adviesraden over Internationale Vraagstukken en Volkenrecht.


Terminator

De delegatie onder leiding van Miriam Struyk van Pax Nederland noemde dat regeringsstandpunt een vrijbrief voor landen om met de ontwikkeling van autonome wapens door te gaan. ‘Uw regering keert zich tegen de science fiction van de Terminator, de robot die volledig op eigen houtje dood en verderf zaait, maar geeft wat er nu aan autonome wapens wordt ontwikkeld vrij spel’, aldus hoogleraar kunstmatige intelligentie en robotica Noel Sharkey aan de University of Sheffield. Als voorbeeld noemde hij de ontwikkeling van het straalvliegtuig Taranis door het Verenigd Koninkrijk, het straalvliegtuig X-47B, de landrobot Crusher en de onderzeeër Sea Hunter door de Verenigde Staten en de tank T-14 Armata door Rusland.


In controle

Kort gezegd komt het standpunt van de regering erop neer dat er met deze wapens altijd een commandant is die besluit ze in te zetten, en hij zal daarbij overwegen of met de inzet wordt voldaan aan het Internationale Oorlogsrecht, die commandant kan daar ook op worden aangesproken.

Dat wapen moet zelf onderscheid maken tussen een militair of een burger, een militair die gewond is of zich over wil geven, of kinderen die met een houten geweer spelen

Sharkey: ‘Maar die mens is er niet meer bij wanneer dat autonome wapen bepaalt op wie hij wanneer zal vuren. Je kunt wel van tevoren programmeren welk doel het wapen moet kiezen, maar uiteindelijk moet dat wapen zelf het onderscheid maken tussen een militair of een burger, een militair die gewond is of zich over wil geven, of kinderen die met een houten geweer spelen.’ Williams: ‘Welke commandant zou zich willen verantwoorden als dat wapen de fout in gaat, door de onoverzichtelijkheid van de situatie, door een bug in de software of misschien door een hack. Je kunt mensen niet verantwoordelijkheid houden voor een machine die op het beslissende moment zelf zijn doel kiest en besluit te vuren.’

Welke commandant zou zich willen verantwoorden als dat wapen de fout in gaat door een bug in de software of een hack

In navolging van het genoemde Advies hanteert de regering het begrip wider-loop. De mens mag dan weliswaar niet direct in-the-loop zitten van de militaire handeling, hij besluit wel tot de inzet van het autonome wapen en zit zo in de wider-loop. Sharkey: ‘Het is een raar concept waar je alle kanten mee op kunt en dat daarom nikszeggend is. Het gaat om de uiteindelijke keuze: op dat doel vuren. Is de mens bij dat besluit out-of-the-loop of in-the loop, dat maakt het verschil.’


Doelgeleide raketten

Maar hoe zit het dan met Surface to Air-missiles, die kiezen na het afvuren toch ook zelfstandig hun doel, wilde PvdA-kamerlid Michiel Servaes weten. Sharkey: ‘Hier kiest de mens het doel, het enige wat de sensoren van de raket doen is zorgen dat het doel wordt geraakt.’ Maar als er een rode knop is om dat autonome wapen terug te roepen, dan is er toch wel menselijke controle, opperde VVD-kamerlid Ronald Vuijk. Sharkey: ‘Dat kan alleen als er tot op het moment van vuren menselijke controle is, dan is er dus geen sprake van een autonoom wapen.’


Robotsuperioriteit

Maar misschien kan die robot wel betere beslissingen nemen dan een mens, vroeg D66-kamerlid Salima Belhaj aan delegatielid Peter Asaro, filosoof verbonden aan de New School in New York. Asaro: ‘De regels van het Internationale Oorlogsrecht zijn geschreven voor mensen, het gaat om afwegingen die door mensen gedaan moeten worden, en waarvan het tot op heden ook nog niet is gelukt dat een computer die kan doen. Uiteraard kun je die regels simplificeren, maar dan is het resultaat toch iets anders dan een afgewogen moreel oordeel. Machines kunnen dat niet.’


Niet schieten bij een school

Maar, ging Belhaj verder, je kunt die robot zo programmeren dat hij bij een school niet mag schieten, terwijl een soldaat misschien zou denken, die belangrijke terrorist, ik waag het er op. Asaro: ‘Je kunt die intelligentie ook gebruiken om de militair erop te wijzen dat schoolkinderen gevaar lopen.’ Met de toevoeging van Jody Williams: ‘De Egyptische soldaten besloten niet op demonstranten van het Tahrir-plein te schieten, Killer Robots hadden dat ongetwijfeld wel gedaan.’

Morgen gaat de Tweede Kamer verder met de opstellers van het Advies waarop het kabinet haar standpunt baseert en dat de delegatie van Stop the Killer Robots zo teleurstellend noemde.

Vond je dit een interessant artikel, abonneer je dan gratis op onze wekelijkse nieuwsbrief.