Waar gaat het over in de discussie over autonome wapens? En zullen ze ethischer handelen dan soldaten van vlees en bloed?

Een wapen dat zelfstandig doelen selecteert en zelf besluit tot een aanval, zo laat een autonoom wapen zich het beste omschrijven. Essentieel is dat er bij de selectie van het doel en het besluit om te vuren geen sprake is van menselijke interactie. Dat maakt een wapen autonoom.

Er zijn momenteel verschillende technieken in gebruik om het doel te selecteren, waaronder:

  • vormherkenning met behulp van camera’s, bijvoorbeeld het herkennen van een tank;
  • thermische herkenning, op basis van de warmte die een object (een voertuig of een mens) uitstraalt;
  • radardetectie, het herkennen en lokaliseren van een radarinstallatie;
  • geluidsherkenning, bepaalt waar een geluid vandaan komt, bijvoorbeeld de herkomst van een geweerschot.

Tegelijk zijn diverse technieken sterk in ontwikkeling, denk aan patroonherkenning, waarbij niet alleen vorm maar ook gedrag een rol speelt, laserdetectie, integratie van verschillende meetsystemen.


Semi-autonome wapens

Intelligente of zelf hun doel kiezende wapens zijn niet nieuw. Systemen voor doelselectie zijn onder meer ontwikkeld voor straaljagerpiloten om de effectiviteit van bombardementen te vergroten. Raketwapens kennen al veel langer systemen om automatisch hun doel te bereiken, met behulp van kaarten (tegenwoordig gps), radar of hittedetectie. De Nederlandse Goalkeeper, een systeem voor op schepen, schiet inkomende raketten uit de lucht.

De Goalkeeper onderschept inkomende raketten.

Wat al deze wapens met elkaar gemeen hebben is dat het uiteindelijk een militair is die beslist of er wordt gevuurd. Dat geldt zowel voor de straaljagerpiloot als de commandant die besluit een raket af te schieten op een bepaald doel.

Hiermee onderscheidt dit type wapens zich van autonome wapens: die hebben die beslissing van de militair niet meer nodig, maar doen het zelf. De mens is out-of-the-loop.


Doet een autonoom wapen het beter

Het out-of-the-loop nemen van de mens zien sommigen als een belangrijk voordeel, omdat robots volgens hen kwalitatief veel beter oorlog zullen voeren dan mensen. Een van de pleitbezorgers daarvan is Ronald Arkin, lees hier het interview met Arkin in De Ingenieur van 2008.

De kern van zijn argumentatie: robots laten zich niet leiden door emoties, kennen geen wraakgevoelens, worden niet moe, hebben geen last van angst, ze laten zich louter leiden door de Internationale Conventies over het voeren van oorlog.


Illusies

Een opponent van Arkin is de Britse computerwetenschapper Noel Sharkey, een van de initiatiefnemers van de Stop Killer Robots-campagne. Sharkey hanteert daarbij verschillende typen van argumenten:

  • Waarom zouden killer robots nauwkeuriger zijn dan menselijke soldaten? Het maken van onderscheid tussen een soldaat en een burger, zeker wanneer die beide hetzelfde zijn gekleed, of het afwegen van het militaire belang van vuren tegen de hoeveelheid burgerslachtoffers doet een mens beter, en niets wijst erop dat kunstmatige intelligentie dat kan evenaren.
  • Robots beschikken niet over menselijke kwaliteiten die hen in staat stellen ethische afwegingen te maken. Juist de emotie van een soldaat stelt hem in staat tot een meer afgewogen oordeel te komen.
  • Het is een beschavingsprincipe dat alleen mensen mogen besluiten om bij een militair conflict een ander te doden. Dat heeft ook te maken met verantwoordelijkheid. Want wie is er verantwoordelijk als een robotsoldaat een oorlogsmisdaad pleegt?

De ervaring met drones, waar soldaten op afstand besluiten tot schieten, wijst er volgens Sharkey op dat er ondanks alle moderne doel-technologie nog veel misgaat. Volgens schattingen zijn er per neergeschoten in Pakistan gezochte terrorist twintig tot honderd burgerslachtoffers.

Openingsbeeld: de Taranis, een onbemand straalvliegtuig van BAE Systems

 

Vond je dit een interessant artikel, abonneer je dan gratis op onze wekelijkse nieuwsbrief.