Niks meer missen?
Schrijf je in voor onze nieuwsbrief!
Foto: Dit beeld is gegenereerd met Adobe Firefly Image 2, een AI-tool
wetenschap

UvA-promovendus: ‘AI-wapenwedloop is allang begonnen’

Jip Koene,
13 februari 2024 - 10:14

Kunstmatige intelligentie is niet meer weg te denken van het slagveld. Naast het verzamelen van inlichtingen worden er ook wapens ontwikkeld die zelfstandig aanvallen kunnen uitvoeren. Maar biedt het humanitair oorlogsrecht voldoende kaders in tijden van oorlog? En wie houden we verantwoordelijk als het fout gaat?

De afgelopen tien jaar heeft kunstmatige intelligentie (AI) tot belangrijke nieuwe toepassingen geleid, waaronder Chat-GPT. In militaire kringen wordt vaak gezegd dat AI onmisbaar zal worden op het toekomstige slagveld, niet alleen voor het verzamelen van inlichtingen maar ook voor de inzet van autonome wapens. De internationale gemeenschap stelt dat alle militaire AI-systemen moeten voldoen aan het humanitair oorlogsrecht (HOR), maar het toepassen van dit recht op nieuwe technologieën is niet altijd eenduidig. 5-vragen aan UvA-promovendus Jonathan Kwik.
 
Autonome wapens, waar praten we dan precies over?
‘Autonome wapens zijn wapens waarvan een cruciaal deel van de besluitvorming - het gebruik van geweld bijvoorbeeld - wordt overgelaten aan kunstmatige intelligentie. Op dit moment worden er alleen nog wapens gebruikt die daarvan in de buurt komen; de commandant heeft nog altijd een sleutelrol in het gebruik ervan.’

Jonathan Kwik

‘In Oekraïne gebruiken ze bijvoorbeeld de Javelin, een soort luchtdoelraket tegen Russische tanks die aan de hand van een algoritme de snelste en beste route zoekt om tanks uit te schakelen. Of denk bijvoorbeeld aan de inzet van Harpy’s door Israël. Dat zijn een soort drone-raketten die zelfstandig vijandige radarsystemen lokaliseren en de bron daarvan vernietigen.’
 
‘Naast vuurwapens wordt kunstmatige intelligentie ook ingezet voor informatievoorziening op het slagveld. Een voorbeeld daarvan zijn de Swarm Robots. Dat zijn robots die met honderden tegelijk los gelaten worden om informatie over locaties en aantallen van militaire troepen te bepalen, of om bijvoorbeeld de beste aanvoerroute voor wapens naar het front te vinden. De commandant kan op basis van die informatie strategische en tactische beslissingen nemen.’
 
Maar kan met de inzet van autonome wapens niet ontzettend veel fout gaan? Hoe weten we bijvoorbeeld zeker dat de wapens alleen militaire doelen raken en geen burgers?
‘In principe moet een autonoom wapen onderscheid kunnen maken tussen militaire doelen en burgers. Een tank heeft bijvoorbeeld een andere vorm, gewicht en warmteafgifte dan een bus of auto. Hoe specifieker de selectie van het doelwit is, hoe meer zekerheid en hoe minder fouten gemaakt worden. Er blijven echter altijd onzekerheden bestaan, al helemaal als tegenstanders AI-werende maatregelen nemen.’
 
‘Tegenstanders kunnen bijvoorbeeld autonome wapens misleiden door een storing te veroorzaken, of de algoritmes te voeden met gegevens waardoor ze gaan “hallucineren” . Dit soort manipulaties kunnen leiden tot ernstige problemen, zoals het onvermogen van autonome wapens om onderscheid te maken tussen verschillende doelen, wat vanzelfsprekend juridische en operationele complicaties met zich meebrengt.’

Het kan zijn dat de programmeur een racist is die ervoor heeft gezorgd dat bepaalde etnische groepen worden gezien als doelwit

Als het fout gaat, wie stellen we dan verantwoordelijk? AI of de commandant?
‘Dat is altijd de vraag, hè. Wat mij betreft ligt de verantwoordelijkheid voornamelijk bij de commandant. Hij is tenslotte de eindgebruiker van de systemen en heeft controle over het inzetten ervan. Daarnaast beslist de commandant over het gedrag van de AI-systeem door technische instellingen te wijzigen zoals bijvoorbeeld de precisie van de selectie van het doelwit.’
 
‘Dit wil overigens niet zeggen dat de producenten en andere partijen nooit verantwoordelijk zijn op het moment dat iets fout gaat. Het kan best zijn dat bijvoorbeeld de programmeur van de systemen een racist is die ervoor heeft gezorgd dat bepaalde etnische groepen als doelwit worden gezien. Op dat moment kun je natuurlijk niet zeggen dat de commandant verantwoordelijk is. Dan lijkt het me wel duidelijk wie de schuldige is.
 
Als er zoveel haken en ogen zitten aan autonomen wapens, waarom moeten we ze dan wel willen gebruiken?
‘AI is momenteel niet meer weg te denken van het slagveld. Verbieden kan ook niet meer. Daarnaast biedt het aanzienlijke voordelen, zoals snelheid van verdedigingswerken en de efficiëntie bij het verwerken van grote hoeveelheden informatie op het slagveld. Het is daarom cruciaal voor het nemen van strategische en tactische beslissingen. Hier ontstaat een dilemma waarin het niet gebruiken van AI-systemen een strategisch nadeel kan opleveren in conflictsituaties waarin tegenstanders ze wel inzetten, die wapenwedloop is dus al lang begonnen.’

Zorgen deze technologieën niet voor problemen bij de toepassing van het humanitair oorlogsrecht?
‘Het humanitaire oorlogsrecht is eigenlijk heel technologieneutraal geschreven; je mag geen burgerdoelen aanvallen, je moet zorgen dat er genoeg humanitaire hulp ter plaatse kan komen, en je hebt een waarschuwingsplicht zodat burgers kunnen evacueren bij bijvoorbeeld een bombardement. Deze regels gelden dus voor zowel geweren, bommen, raketten, cyberaanvallen maar dus ook voor autonome wapens. Toch zijn de rechten interpretabel; hoe definieer je burgerdoelen, wat is genoeg humanitaire hulp, en hoe kort van tevoren moet je burgers waarschuwen? Langs deze lijnen worden de verschillende artikelen van het recht tegen het licht gehouden bij nieuwe ontwikkelingen zoals autonome wapens, waar we vervolgens aanvullende afspraken over kunnen maken.’

 

‘Verdragen spelen daarin een belangrijke rol. Biologische wapens of chemische wapens zijn bijvoorbeeld allemaal verboden doordat we dat met elkaar hebben afgesproken in internationale verdragen. Het humanitair oorlogsrecht verbiedt dat indirect door te stellen dat men geen wapens mag gebruiken die niet onderscheid kunnen maken tussen militaire en burgerdoelen, zoals virussen. Dat geldt dus ook voor autonome wapens. Of er ook internationale afspraken komen voor het gebruik van bepaalde autonome wapens, sluit ik daarom niet uit.’