Lijst van vragen en antwoorden over de initiatiefnota van het lid Belhaj over Autonome Wapensystemen (Kamerstuk 35848-2)
Initiatiefnota van het lid Belhaj over Autonome Wapensystemen
Lijst van vragen en antwoorden
Nummer: 2021D48294, datum: 2021-12-07, bijgewerkt: 2024-02-19 10:56, versie: 5
Directe link naar document (.pdf), link naar pagina op de Tweede Kamer site, officiële HTML versie (kst-35848-4).
Gerelateerde personen:- Eerste ondertekenaar: A. (Aukje) de Vries, voorzitter van de vaste commissie voor Defensie (VVD)
- Mede ondertekenaar: F.H. Mittendorff, adjunct-griffier
Onderdeel van kamerstukdossier 35848 -4 Initiatiefnota van het lid Belhaj over Autonome Wapensystemen .
Onderdeel van zaak 2021Z22745:
- Indiener: S. Belhaj, Tweede Kamerlid
- Voortouwcommissie: vaste commissie voor Defensie
- 2021-12-09 10:30: Procedurevergadering (via videoverbinding) (Procedurevergadering), vaste commissie voor Defensie
- 2021-12-13 10:00: Notaoverleg Initatiefnota van het lid Belhaj over Autonome Wapensystemen (Notaoverleg), vaste commissie voor Defensie
- 2022-01-19 14:15: Aanvang middagvergadering: Regeling van werkzaamheden (Regeling van werkzaamheden), TK
Preview document (🔗 origineel)
Tweede Kamer der Staten-Generaal | 2 |
Vergaderjaar 2021-2022 |
35 848 Initiatiefnota van het lid Belhaj over Autonome Wapensystemen
Nr. 4 LIJST VAN VRAGEN EN ANTWOORDEN
Vastgesteld 7 december 2021
De vaste commissie voor Defensie heeft een aantal vragen voorgelegd aan het lid Belhaj over de initiatiefnota over Autonome Wapensystemen (Kamerstuk 35 848, nr. 2).
Het lid Belhaj heeft deze vragen beantwoord bij brief van 7 december 2021. Vragen en antwoorden zijn hierna afgedrukt.
De fungerend voorzitter van de commissie,
Aukje de Vries
De adjunct-griffier van de commissie,
Mittendorff
1
Eerder dit jaar kwam het Internationale Rode Kruis met een nieuwe positie over autonome wapens1. Hoe verhoudt de initiatiefnota zich tot deze positie?
Antwoord:
De initiatiefnota komt op veel aspecten overeen met de (nieuwe) positie van het Internationale Rode Kuis. Zo stelt ook het Internationale Rode Kruis dat het bestaande oorlogsrecht een goede basis vormt, maar niet afdoende is om autonome wapens adequaat te reguleren. Zij roepen dan ook op tot een internationaal verdrag met regulering in het gebruik van autonome wapens, door middel van betekenisvolle menselijke controle, en het verbieden van fundamenteel onacceptabele autonome wapens. Ook definiëren zij wapensystemen die verboden zouden moeten worden als die autonome wapens waarbij betekenisvolle menselijke controle niet mogelijk is. Daarnaast is onze visie op betekenisvolle menselijke controle gedeeltelijk gestoeld op de positie van het Internationale Rode Kruis, namelijk dat de menselijke gebruiker(s) de effecten van een aanval moeten kunnen voorspellen en controleren. Er dient menselijk handelingsvermogen (human agency) aanwezig zijn in het besluit om geweld te gebruiken.
2
Het Internationale Rode Kruis roept op tot een verbod op autonome wapens die de mens als doelwit hebben. Het stelt dat dit type autonome wapens onethisch en juridisch gezien problematisch zijn2. Hoe reageert de initiatiefneemster op deze zorg? Wordt die gedeeld?
Antwoord:
In de initiatiefnota is in beginsel geen onderscheid gemaakt tussen verschillende soorten doelwitten, mens of anders. De zorg van het Internationale Rode Kruis wordt echter wel gedeeld door de initiatiefneemster.
De initiatiefneemster is van mening dat volledig autonome wapensystemen verboden moeten worden en dat autonome wapensystemen door middel van betekenisvolle menselijke controle gereguleerd moeten worden. Ingeval van volledig autonome wapensystemen die mensen als doelwit hebben, onderschrijft initiatiefneemster de stellingname van het Internationale Rode Kruis. Ingeval van autonome wapensystemen die mensen als doelwit hebben, is in de initiatiefnota de stellingname van het Rode Kruis niet direct onderschreven. De initiatiefneemster merkt op dat deze kwestie inderdaad (morele) vragen oproept en om een verdere discussie vraagt.
3
De initiatiefneemster noemt in haar beslispunten de noodzaak van concretisering van het begrip betekenisvolle menselijke controle. Wat zijn de ideeën van de initiatiefneemster over het nader concretiseren van dit begrip?
Antwoord:
Initiatiefneemster is van mening dat het begrip betekenisvolle menselijke controle aan de hand van de onderstaande zeven elementen meer concrete invulling kan worden gegeven (zie ook pagina 14 in de initiatiefnota):
• Controle over de context (bijvoorbeeld door beperkingen in tijd en ruimte van inzet);
• Het door de gebruiker begrijpen van het functioneren van het wapensysteem;
• Het door de gebruiker begrijpen van de omgeving van de mogelijke aanval;
• Voorspelbaarheid en betrouwbaarheid van het wapensysteem;
• Menselijk toezicht en mogelijkheden tot ingrijpen;
• Verantwoording door een mens;
• Ethische overwegingen en het principe van menselijke waardigheid.
Dit betekent grondige controle, kennis en toezicht over het wapensysteem in het doelontwikkelingsproces voor niet-volledige autonome wapensystemen. Tevens moet de menselijke aanwezigheid garanderen dat het (menselijke) vermogen aanwezig is om moreel verantwoorde afwegingen en beslissingen te kunnen maken. Naast de beslissingen vooraf is het zaak dat de mens ook de controle houdt over de effecten van de aanval, deze effecten dienen in lijn te zijn met zijn of haar intenties. Kortom: er moet een garantie zijn dat menselijk handelingsvermogen deel is van de besluitvorming in het doelontwikkelingsproces. Zie voor een bredere reflectie op moraliteit en militaire ethiek het antwoord op vraag 6.
4
Hoe verhoudt de initiatiefnota zich tot de standpunten van staten en andere spelers in het internationale debat over autonome wapens? In welke mate is er draagvlak voor hetgeen wordt voorgesteld in de nota?
Antwoord:
Als er wordt gekeken naar draagvlak en hoe de nota zich verhoudt tot het internationale debat over autonome wapens is het behulpzaam om een onderscheid te maken tussen statelijke actoren en niet-statelijke actoren. Om met de eerste te beginnen, er is bij de Conventie over Bepaalde Conventionele Wapens van de Verenigde Naties (UNCCW) een grote meerderheid van staten voorstander van regulering van autonome wapensystemen door middel van menselijke controle. Hieronder vallen onder andere Frankrijk, Duitsland, Noorwegen, Oostenrijk, Brazilië, Chili, Mexico, Sierra Leone, en New Zeeland. In landen om ons heen worden er afspraken gemaakt over autonome wapensystemen in regeerakkoorden, Zo stelt het Duitse regeerakkoord dat autonome wapens zonder menselijke controle internationaal verboden moeten worden.3 Het Belgische regeerakkoord wil «een regelgevend kader inzake volledig autonome wapensystemen, en streeft daarbij naar een internationaal verbod.» En Noorwegen wil de noodzakelijk initiatieven nemen om de ontwikkeling van autonome wapensystemen te reguleren.4
Er is een kleine minderheid van staten die stellen dat het bestaande oorlogsrecht voldoende houvast geeft om autonome wapens te reguleren. Dit zijn landen als Rusland en de Verenigde Staten.
Van 13 tot 17 december a.s. komt de UNCCW weer bijeen en worden autonome wapens wederom besproken. De paper die de Belgische voorzitter bij deze besprekingen zal voorleggen pleit, evenals de nota van de initiatiefneemster, voor en combinatie van regulering en verboden. Als ook voor maatregelen om menselijke controle te behouden door middel van beperkingen tijd, ruimte en typen doelwitten).
Wat betreft de niet-statelijke actoren, is het goed om te verwijzen naar de open brief die 116 CEOs en oprichters van technologiebedrijven schreven aan de Verenigde Naties en die inmiddels door duizenden experts in AI en Robotica is ondertekend.5
Zoals reeds genoemd in het antwoord op vraag 1, is het belangrijk om ook het Internationale Rode Kruis hier te noemen, ook deze gerenommeerde internationale organisatie pleit voor meer regulering op autonome wapens en een verbod op volledige autonome wapensystemen.
In 2018 en 2021 nam het Europese Parlement resoluties aan die oproepen tot een internationaal verdrag3 en daarnaast heeft VN secretaris-generaal António Guterres meermaals verklaard dat dodelijke autonome wapens politiek onacceptabel en moreel verwerpelijk zijn en dat ze internationaal verboden moeten worden.
5
Hoe rijmt de initiatiefnemer de steeds meer ingewikkelde omstandigheden waarbinnen de krijgsmacht moet opereren en de personeelstekorten met een inperking van autonome systemen?
Antwoord:
De initiatiefneemster onderkent de ingewikkelde omstandigheden waarbinnen de krijgsmacht moet opereren en ziet ook hoe het automatiseren en autonoom maken van militaire taken een uitkomst kan zijn voor de personeelstekorten waar de Nederlandse krijgsmacht mee kampt. Het is dan ook cruciaal om hier nogmaals te benadrukken dat de initiatiefneemster grote toegevoegde waarde ziet in autonome militaire systemen, waaronder autonome wapensystemen. De initiatiefneemster ziet een moderne krijgsmacht voor zich waarin mens en machine op een evenwichtige manier met elkaar samenwerken met behulp van geavanceerde systemen. Zo wordt de krijgsmacht uitgerust voor de toekomst en kan het weerstand bieden tegen allerlei soorten dreigingen die onontkomelijk op Nederland en de Europese Unie afkomen (zoals hybride en cyberdreigingen). Wat de initiatiefneemster betreft komen de voorbeelden van autonome wapens het meest tot hun recht als ze ingezet worden onder betekenisvolle menselijke controle, hier wordt de sterke kant van de mens gecombineerd met de sterke kant van de machine.
6
Kan de initiatiefneemster voorbeelden noemen van wat zij als «morele afwegingen» ziet?
Antwoord:
De initiatiefneemster gaat in de nota af op het begrip van moraliteit van hoogleraar in de militaire ethiek van de Nederlandse Defensie Academie (KMA) Desiree Verweij. Zij omschrijft ethiek als kritische reflectie op moraal, en daarbij is moraal het geheel van de normen en waarden van een bepaalde gemeenschap in een bepaalde periode.6 Deze kritische reflectie op moraal is het vermogen om adequaat te kunnen oordelen over een morele kwestie, wat betekent dat een individu (een moral agent) in staat is zijn of haar keuzes af te wegen tegen de geldende normen en waarden die in een specifiek praktijk van toepassing zijn. Normen verwijzen hier naar een geldende regel die gebaseerd zijn op een onderliggende waarde. Een voorbeeld hiervan is bijvoorbeeld de regel in het oorlogsrecht dat strijdende partijen in een oorlog de burgerbevolking (niet-strijders) met rust laten. Deze regel is gebaseerd op de waarde die we hechten aan het menselijk leven en het hebben van een menselijk bestaan.
In een militaire context komt ethiek op verschillende momenten naar voren, niet allerminst omdat men in oorlogsvoering onherroepelijk te maken krijgt met keuzes over leven en dood. Hierbij moeten inderdaad morele afwegingen worden gemaakt, vrije voorbeelden hiervan zijn: (1) een commandant die de opdracht moet geven aan zijn soldaten om te vuren op vijandelijke troepen, terwijl hij weet dat er een risico is op het vallen van burgerslachtoffers (2) een militair die een ondervoed kind in vijandelijk gebied niet mag helpen terwijl er voldoende medicijnen op de militaire basis aanwezig zijn, (3) een dronepiloot op de vliegbasis in Leeuwarden die informatie doorkrijgt van vijandelijke informanten die hun leiders waarschuwen en dus zo snel mogelijk onschadelijk moeten worden gemaakt, maar vervolgens via zijn live beelden ziet dat de informanten een jonge moeder en kind zijn.
Om hier een antwoord op te geven dienen militairen goed te weten wat morele vragen en dilemma’s zijn. Dit vergt de juiste ethische opleiding om hier op de juiste, menselijke manier mee om te gaan.
De initiatiefnota voorziet niet in klip klare antwoorden over hoe een morele afweging er precies als criterium moet uitzien voor betekenisvolle menselijke controle, echter is de initiatiefneemster wel van mening dat een groot deel van de oplossing ligt in het ontwikkelen van morele professionaliteit bij het individu. Militairen dienen de morele competenties te ontwikkelen om met de morele aspecten van de militaire context om te kunnen gaan. Hierbij worden een aantal suggesties gegeven:
• Bewust worden van de eigen, persoonlijke waarden en de waarden van anderen;
• In staat zijn de morele dimensie van een situatie te herkennen en kunnen zien welke waarden op het spel staan;
• Kunnen oordelen over een morele vraag;
• Over dit oordeel kunnen communiceren;
• Willen en kunnen handelen naar dit oordeel op een moreel verantwoorde manier;
• Verantwoording willen en kunnen afleggen aan jezelf en aan anderen.7
Zie voor een toelichting op betekenisvolle menselijke controle pagina 15 van de initiatiefnota, paragraaf 3.2.
7
Hoe denkt de initiatiefneemster bescherming te kunnen blijven bieden als tegenhanger tegen de landen die wel overgaan tot volledig autonome wapens?
Antwoord:
De grootste bedreiging voor onze nationale, Europese en internationale veiligheid is dat autonome wapens ongereguleerd worden ingezet. Zonder regulering zal de wereld in een wapenwedloop terecht komen zoals we deze kennen van de kernwapenwedloop uit de Koude Oorlog. Het is zaak om de wapenwedloop te voorkomen. Dit is eerder succesvol gelukt met internationale verdragen, zoals bij clustermunitie en landmijnen. Hier deden een klein aantal landen ook niet aan mee, maar toch zijn deze verdragen nog steeds effectief doordat alle landen, ook landen die niet ondertekend hebben, beïnvloed worden door de nieuwe internationale norm en het leidt tot een stigmatisering van deze wapens.
Nederland is een voorvechter van een op regels gebaseerde wereldorde met een sterk multilateraal stelsel. Het is daarin belangrijk dat Nederland zich niet laat leiden door landen die zulke verdragen niet willen afsluiten, maar juist het multilateralisme en internationale verdragen inzet om onze fundamentele normen en waarden te verdedigen en te bestendigen.
Een sterke norm die door veel landen wordt gesteund is beter voor de Nederlandse, Europese en internationale veiligheid dan een situatie waarin er geen nieuwe norm wordt gesteld aan (volledig) autonome wapens, met het gevolg dat deze wapens ongereguleerd breed kunnen worden ingezet door zowel statelijke als niet-statelijke actoren – en er een ongeremde wapenwedloop ontstaat met alle negatieve gevolgen van dien.
8
De initiatiefneemster geeft aan dat de technologische ontwikkeling niet stil staat. Zou er ook een mogelijkheid bestaan dat die ontwikkeling ertoe leidt dat het uiteindelijk toch verantwoord is volledig autonome wapens te gebruiken?
Antwoord:
Het is belangrijk om te benadrukken dat het vraagstuk over autonome wapensystemen in essentie niet gaat over de technologische mogelijkheden die onze krijgsmacht (en andere krijgsmachten) tot hun beschikking hebben. Wat de initiatiefneemster betreft dient de keuze om geweld te gebruiken altijd bij de mens te liggen. Het is fundamenteel onacceptabel om het gebruik van geweld te delegeren aan een machine. De mens dient dus altijd in controle te blijven over het gebruik van geweld, ongeacht de mate van technologische ontwikkeling. Dat deze discussie nu speelt, komt doordat de mogelijkheid voor het eerst ontstaat door deze technologische vooruitgang. Daarom is het van groot belang dat hier nu duidelijke politieke, juridische en ethische kaders aan worden gesteld. Het is in deze goed om nogmaals te verwijzen naar de brief die op 20 augustus 2017 werd verstuurd aan het UNCCW, inzake het verbod of de beperking van het gebruik van bepaalde conventionele wapens die geacht kunnen worden buitensporig leed te veroorzaken of een niet-onderscheidende werking te hebben, onder aanvoering van Tesla en SpaceX topman Elon Musk.8
9
Hoe definieert de initiatiefneemster een «morele afweging», als criterium voor wanneer er sprake is van betekenisvolle menselijke controle?
Antwoord:
Zie antwoord 6.
10
Ziet de initiatiefneemster de Samsung SGR-A1 Guard Robot in autonome modus respectievelijk de Goalkeeper CIWS in autonome modus als een volledig autonoom wapensysteem dat verboden dient te worden? Indien er een verschil is tussen de betiteling van beide wapensystemen, waarop is dat gebaseerd?
Antwoord:
De initiatiefneemster ziet noch de Samsung SGR-A1 Guard Robot in autonome modus respectievelijk de Goalkeeper CIWS in autonome modus als een volledig autonoom wapensysteem dat verboden dient te worden. Het gaat daarbij vooral om de vraag hoe het wapen wordt ingezet. Is er bij de inzet van deze wapensystemen de mogelijkheid om betekenisvolle menselijke controle uit te voeren? Kan de mens de effecten van een aanval van de SGR-A1 Guard Robot voorspellen en controleren? Kan de inzet van de SGR-A1 Guard Robot beperkt worden in ruimte, tijd en doelwitten?
Vooralsnog kan de initiatiefneemster noch de SGR-A1 Guard Robot noch de Goalkeeper CWS omschrijven als een volledig autonoom wapensysteem. Wel baart de SGR-A1 Guard Robot in dat opzicht meer zorgen, aangezien dit een grensrobot is die mogelijkerwijs (in de toekomst) voor een langere periode en in een relatief minder overzichtelijke zone ingezet kan worden.
11
Welke definitie van «zwermdrone» hanteert de initiatiefneemster?
Antwoord:
Initiatiefneemster hanteert de volgende definitie van «zwermdrone» van Kallenborn en Bleek: «Drone swarms consist of multiple unmanned platforms and/or weapons deployed to accomplish a shared objective, the platforms and/or weapons autonomously altering their behavior based on communication with one another. Drone swarms are not necessarily fully autonomous. Humans may still have some level of control such as approving firing decisions.»9
12
Welke definitie van «korte periode» en van «klein gebied» hanteert initiatiefneemster, om tijd en ruimte te beperken?
Antwoord:
De beperkingen in tijd en ruimte moeten faciliteren dat de mens kan voorspellen en controleren wat de effecten van een aanval zijn. Hij/zij moet voldoende informatie over de context hebben om een weloverwogen beslissing te maken. Deze zijn situationeel afhankelijk, zeer veranderlijk en complex. Het is goed te realiseren dat dit om zeer exacte beperkingen in tijd en ruimte gaan.
13
Kan de initiatiefneemster aangeven wat zij als geschikte operationele kaders zou zien?
Antwoord:
De initiatiefneemster ziet het inbouwen van betekenisvolle menselijke controle als het geschikt maken van operationele kaders. Dit betekent dat er in de rolverdeling tussen mens en machine duidelijke regels en afspraken worden gemaakt om te waarborgen dat er een menselijke afweging ten grondslag ligt aan het gebruik van geweld.
De initiatiefneemster ziet het als cruciaal dat alle fasen in het huidige doelontwikkelingsproces (planning, uitvoering en evaluatie) worden doorgelicht om te beoordelen in welke fases betekenisvolle menselijke controle ingebouwd dient te worden. Hierbij is het vanzelfsprekend dat er extra focus ligt op de uitvoeringsfase waarin de daadwerkelijke keuze om geweld in te zetten wordt gemaakt.
14
Hoe denkt de initiatiefneemster te waarborgen dat Nederlandse organisaties betrokken blijven bij de ontwikkeling wanneer Europese landen wel volledig autonome wapens produceren?
Antwoord:
De Nederlandse industrie en Nederlandse organisaties blijven betrokken bij de ontwikkeling van autonome wapensystemen. De initiatiefneemster trekt echter de grens bij volledig autonome wapensystemen. Initiatiefneemster verwacht niet dat de Nederlandse industrie of organisaties buiten spel worden gezet bij de ontwikkeling van autonome wapens, als zij zich niet langer bezighouden met de ontwikkeling van volledig autonome wapensystemen. De Duitse Industrie Bond (BDI) heeft zich bijvoorbeeld ook uitgesproken voor een verdrag over autonome wapens en de ABN AMRO en andere internationale banken willen niet investeren in volledig autonome wapensystemen.10 Wat de initiatiefneemster betreft zou Nederland niet moeten willen bijdragen aan de ontwikkeling van fundamenteel onacceptabele systemen zoals volledig autonome wapens. De verwachting is dat geen enkel Europees land de ambitie heeft om volledig autonome wapens te ontwikkelen.
15
Kan de initiatiefneemster breder ingaan op de gemaakte vergelijking met nucleaire en massavernietigingswapens?
Antwoord:
Op 24 april 2019 werd de motie van het lid Koopmans c.s. (Kamerstuk 33 694, nr. 43) van de heer Koopmans (VVD) aangenomen die stelt dat: «nieuwe technologische ontwikkelingen hebben geleid en zullen leiden tot het ontstaan en de verspreiding van nieuwe wapens die goedkoper en makkelijker te maken zijn, met de potentie om op ongekend grote schaal dood en verderf te zaaien en derhalve als massavernietigingswapens beschouwd kunnen worden.» Deze motie roept de regering op om met gelijkgezinde landen praktisch en realistische aanjager te zijn van een zo breed gedragen en verstrekkend mogelijk verdrag of andere bindende internationale regelgeving ter beheersing van de productie, plaatsing, verspreiding en inzet van nieuwe potentiële massavernietigingswapens.
Volgens de initiatiefneemster schuilt er in de ontwikkeling van volledig autonome wapensystemen inderdaad het gevaar zoals beschreven in de motie van het lid Koopmans c.s. (Kamerstuk 33 694, nr. 43). Wetenschappers stellen dan ook dat volledig autonome wapens een nieuwe revolutie zouden zijn in oorlogsvoering na het buskruit en kernwapens.
16
Kan de initiatiefneemster breder toelichten wat wordt bedoeld met «algoritmen»?
Antwoord:
In de context van autonome wapensystemen spreken we over «zelflerende» of «slimme» algoritmen. Het gaat hier om (delen van) computersystemen die zelf beslissingen kunnen nemen, dit wordt ook wel kunstmatige intelligentie genoemd. De Europese Commissie definieert kunstmatige intelligentie als: «systems that display intelligent behaviour by analysing their environment and taking actions – with some degree of autonomy – to achieve specific goals.»11
Het gevaar van deze «slimme» algoritmen is gelegen in: 1) de menselijke bias die verwerkt is in deze algoritmen, wat bijvoorbeeld kan leiden tot algoritmen die uit zichzelf discriminerende keuzes maken; en 2) het gebrek aan transparantie in de besluitvorming bij deze algoritmen.
17
Betekent de verplichting uit artikel 36 van het aanvullend Protocol 1 bij de verdragen van de Geneefse conventie van 12 augustus 1949 volgens de initiatiefneemster dat wapens die niet in staat zijn te voldoen aan de verplichtingen van onderscheid, proportionaliteit en voorzorgsmaatregelen, in de ogen van de initiatiefneemster krachtens dat artikel verboden zijn?
Antwoord:
Onder het internationaal humanitair oorlogsrecht zijn bepaalde wapens verboden, namelijk wapens die onnodig leed en/of buitensporige verwondingen veroorzaken, die een niet-onderscheidend vermogen hebben of onbeheersbare effecten hebben. In artikel 36 van het aanvullend Protocol 1 bij de verdragen van de Geneefse Conventie van 12 augustus 1949 is de toets opgenomen of wapens onder bovengenoemde categorieën verboden wapens vallen. Volgens initiatiefnemers zijn autonome wapensystemen niet per definitie verboden, omdat zij niet per se onder bovengenoemde categorieën wapens vallen.
De vraag of de wapens rechtmatig ingezet kunnen worden is een tweede vraag. Bij deze vraag zijn de criteria van onderscheid, proportionaliteit en voorzorgsmaatregelen van belang. Deze criteria zijn onverkort van toepassing op autonome wapensystemen. De verplichting uit artikel 36 betekent dus niet dat autonome wapens verboden kunnen worden wegens de inzet daarvan, dat ziet immers toe op een andere vraag.
18
Kan de initiatiefneemster toelichten of en zo ja hoe wapensystemen, waarbij het niet mogelijk is beperkingen aan te brengen in tijd of ruimte, kunnen voldoen aan de algemene verplichtingen van onderscheid, proportionaliteit en voorzorgsmaatregelen in het humanitair oorlogsrecht?
Antwoord:
De inzet en het gebruik van (volledig) autonome wapensystemen is niet per definitie verboden onder internationaal humanitair oorlogsrecht, waaronder de algemene verplichtingen van onderscheid proportionaliteit en voorzorgsmaatregelen vallen. Wel stelt het ICRC: «It is the humans subject to IHL who are responsible for applying the law and who can be held accountable for violations, not the weapon itself. The legal requirements under rules governing attacks must be fulfilled by those persons who plan, decide on and carry out attacks, in other words the users of an AWS.»
Met andere woorden is volgens het ICRC het gebruik van (volledig) autonome wapensystemen zonder betekenisvolle menselijke controle strijdig met het internationaal humanitair oorlogsrecht.
Voorts zal voor (volledig) autonome wapensystemen waarbij het in zijn geheel niet mogelijk is om beperkingen aan te brengen in tijd of ruimte bij de inzet van een wapensysteem, de inzet daarvan strijdig zijn met het humanitair oorlogsrecht. Het is echter eerder de vraag in hoeverre de inzet van een wapensysteem in tijd en ruimte beperkt wordt. De beantwoording van die vraag is geheel afhankelijk van de desbetreffende situatie. Zo zal bij een operatie in een dichtbevolkt gebied een grotere beperking in tijd en ruimte gevergd worden dan bij een operatie in een dunbevolkt gebied.
19
Kan de initiatiefneemster toelichten of en zo ja hoe inzet van wapensystemen, waarbij het niet mogelijk is beperkingen aan te brengen in tijdsduur van de inzet of afbakening van het inzetgebied, onder het Jus ad Bellum kunnen voldoen aan de vereisten voor de toepasbaarheid van het recht op zelfverdediging uit artikel 51 van het VN-handvest?
Antwoord:
Het jus ad bellum heeft betrekking op de situatie voorafgaand aan een gewapend conflict – is het voeren van een oorlog gerechtvaardigd? De inzet van wapensystemen bij een gewapend conflict is echter een vraag die past in het jus in bello, het internationaal humanitair recht, dat toeziet op de situatie ten tijde van gewapende conflicten.
Artikel 51 van het VN-handvest ziet toe op het jus ad bellum, waarin gesteld wordt dat geen enkele bepaling uit het handvest de individuele en collectieve zelfverdediging bij een gewapende aanval van een lidstaat beperkt.
Het is daarmee de vraag of de inzet van een wapensysteem – waarbij het niet mogelijk is beperkingen aan te brengen in tijdsduur van de inzet of afbakening van het inzetgebied – als een gewapende aanval gekwalificeerd kan worden en of die gewapende aanval voldoet aan de vereisten voor de toepasbaarheid van het recht op zelfverdediging uit artikel 51 van het VN-handvest. Het antwoord op die vraag zal afhankelijk zijn van de situatie en daarop kan initiatiefneemster geen eenduidig antwoord verschaffen.
20
Welke juridische definitie van gewapend conflict hanteert de initiatiefneemster? Kan de initiatiefneemster voorbeelden geven van gewapende conflicten die aan die definitie voldoen, maar waarbij geen sprake was van geografische afbakening?
Antwoord:
Initiatiefneemster hanteert de definitie van gewapend conflict uit de zaak Tádic, die als volgt luidt: «an armed conflict exists whenever there is a resort to armed force between States or protracted armed violence between governmental authorities and organized groups or between such groups within a State».12 Deze definitie omvat zowel internationale als niet-internationale gewapende conflicten. Initiatiefneemster kan geen voorbeelden geven van gewapende conflicten die aan bovenstaande definitie voldoen, waarbij geen sprake was van een geografische afbakening.
21
Kan de initiatiefneemster toelichten hoe de doelstelling van betekenisvolle menselijke controle gedefinieerd als «controle behouden over de effecten van een aanval op een doelwit en de omgeving» tot zijn recht komt bij niet autonome wapensystemen in de casus waarbij een artillerie-eenheid tegenbatterijvuur opent op basis van de via een tegenbatterijradar verkregen informatie? Kan de initiatiefneemster ook toelichten hoe de bovengenoemde doelstelling van controle over effecten op de omgeving van een doelwit plaatsvindt bij de casus van een AGM-88 HARM raket die zich richt op de positie waarvandaan een vijandelijke radarinstallatie signalen heeft uitgezonden?
Antwoord:
In het doelontwikkelingsproces van de artillerie-eenheid is sprake van betekenisvolle menselijke controle. De militair heeft kennis en inzicht in de te verwachten effecten van de AGM-88 HARM raket. Hij/zij is op de hoogte van de context waarin het wapen wordt gebruikt, bijvoorbeeld of er burgers in de buurt zijn of dat het logisch is dat de vijand op deze plek wordt gedetecteerd. Daarnaast heeft hij/zij kennis van het wapensysteem en kan zij daarom een inschatting maken van de impact van het artillerievuur, door bijvoorbeeld te kijken of het kaliber past bij het te raken doelwit. De mens kan zodoende een afweging maken die juridisch en ethisch verantwoord is.
In het maken van deze afweging vertrouwt de mens op de nauwkeurige informatie van de radar. Dit zou ook het geval zijn als hij/zij een doelwit moest raken met een autonoom wapen. De mens maakt een beslissing op basis van kennis over de context, het wapensysteem en het gegeven dat er een nauwkeurige beperking is van tijd en geografische inzet. Dit betekent dat het systeem niet zelfstandig op zoek gaat naar een mogelijk doelwit in een groot geografisch gebied in een langere tijdsspanne.
22
Kan de initiatiefneemster toelichten hoe zij de relatie tot een ander land ziet indien dit land zich niet aan wil sluiten bij verdragen van de Geneefse Conventie?
Antwoord:
Het al dan niet aan wil sluiten bij de verdragen van de Geneefse Conventie, is door de initiatiefneemster niet ter discussie gesteld in de initiatiefnota. Vrijwel alle staten hebben zich immers al aangesloten bij de verdragen van de Geneefse Conventie (niet alle landen hebben ook de aanvullende protocollen geratificeerd).
De initiatiefneemster vraagt wel om internationaal, vooral binnen de EU, aan te dringen bij andere landen om artikel 36 van het aanvullend Protocol 1 bij de verdragen van de Geneefse conventie 12 augustus 1949 om te zetten in nationale wetgeving. De relatie met andere landen – met name de lidstaten van de EU – die dit artikel niet hebben omgezet in nationale wetgeving zal in zoverre niet veranderen. De initiatiefneemster ziet alleen graag dat Nederland een proactieve rol neemt in internationale gremia om het belang hiervan te onderstrepen en andere landen aan te sporen om artikel 36 om te zetten in nationale wetgeving.
https://www.icrc.org/en/document/icrc-position-autonomous-weapon-systems.↩︎
https://www.icrc.org/en/document/icrc-position-autonomous-weapon-systems.↩︎
https://www.tagesspiegel.de/downloads/27829944/1/koalitionsvertrag-ampel-2021-2025.pdf.↩︎
https://res.cloudinary.com/arbeiderpartiet/image/upload/v1/ievv_filestore/43b0da86f86a4e4bb1a8619f13de9da9afe348b29bf24fc8a319ed9b02dd284e.↩︎
https://www.cse.unsw.edu.au/~tw/ciair/open.pdf.↩︎
D. Verweij, Ethiek en de militaire praktijk, Boom uitgevers: Amsterdam 2020, p. 15.↩︎
Eva van Baarle, «Versterken van de morele competentie: Ethiekonderwijs in een militaire context» in: D. Verweij, Ethiek en de militaire praktijk, Boom uitgevers: Amsterdam 2020, p. 40.↩︎
Wilmer Heck, «Bedrijven in open brief: stop ontwikkeling «killer robots»» NRC.nl, 20 augustus 2017, https://www.nrc.nl/nieuws/2017/08/20/killer-robots-begin-er-niet-aan-12600687-a1570489 (geraadpleegd 2 september 2020).↩︎
Kallenborn & Bleek in The Nonproliferation Review 2019.↩︎
https://www.abnamro.com/en/investor-relations/product/exclusion-list.↩︎
https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:52018DC0795&rid=3#:~:text=Artificial%20Intelligence%20refers%20to%20systems,or%20speak%20with%20digital%20assistants.↩︎
ICTY, Prosecutor v. Tadić a/k/a «Dule», Appeals Chamber Decision, IT-94-1-AR72, 2 oktober 1995, paragraaf 70.↩︎