Er zijn nauwelijks regels voor het gebruik van militaire kunstmatige intelligentie. Nu de ontwikkelingen van AI zo snel gaan, zou dat wel moeten. Als een wapen uit zichzelf besluit een doelwit te beschieten, kan er dan nog iemand verantwoordelijk worden gehouden?
We moeten wel snel in actie komen om militaire AI op een juiste manier in te zetten. Dat was de conclusie die minister Wopke Hoekstra (Buitenlandse Zaken) donderdagmiddag trok tijdens de slotceremonie van REAIM. Het World Forum in Den Haag stond twee dagen lang in het teken van grote vraagstukken rondom kunstmatige intelligentie.
De conferentie draaide om de ‘verantwoorde inzet van AI in het militaire domein’. Daarbij denk je al snel aan killer robots. Zo noemen we wapens die helemaal zelfstandig te werk gaan. Zonder bemoeienis van mensen dus, maar met hulp van AI. Dit soort wapens worden nog niet ingezet bij conflicten, maar ze zijn wel in ontwikkeling.
Pleiten voor verbod op autonome wapens
Amnesty International maakt zich daar zorgen over. “Oorlogsvoering is nooit duidelijk of overzichtelijk”, zegt secretaris-generaal Agnès Callamard van de mensenrechtenorganisatie. “Oorlogen zijn smerig en maken misbruik van vooringenomenheid. Je kunt AI de opdracht geven om doelwitten met een bepaalde achtergrond of uiterlijke kenmerken uit te schakelen. AI maakt wapens preciezer en dodelijker. En denk maar niet dat alleen mensen met goede bedoelingen dit soort wapens gebruiken.”
Er moet dus snel iets gebeuren, zegt Callamard. Zij roept op tot bindende, internationale regelgeving. Daarin staat ze niet alleen. “Overheden moeten duidelijkere regels stellen over wat wel en niet mag”, zegt Marietje Schaake, directeur internationaal beleid bij Stanford’s Cyber Policy Center. “Denk aan een verbod op zelfdenkende wapens.”
De Britse computerwetenschapper Stuart Russell pleit vurig voor zo’n verbod. “Als we dit soort ontwikkelingen niet verbieden of in elk geval begrenzen, worden het massavernietigingswapens”, zegt hij. “Een persoon kan een knop indrukken en daarmee miljoenen mensen vermoorden. Er zijn al internationale verdragen om de inzet van biologische wapens te verbieden. Dat moeten we hiermee ook doen.”
Wie draagt de verantwoordelijkheid?
Maar de conferentie ging over meer dan alleen killer robots. Zo filosofeerden sprekers over wat AI precies is en hoe we zeker kunnen weten dat de technologie nooit discrimineert. Eén ding is volgens de Nederlandse commandant der strijdkrachten Onno Eichelsheim zeker: “We moeten met AI leren omgaan, want het gaat niet meer weg”.
Een belangrijk punt daarbij is verantwoordelijkheid. Als een wapen is uitgerust met kunstmatige intelligentie en er vallen (onschuldige) slachtoffers, wie is er dan verantwoordelijk? Het antwoord is nog niet zo simpel. De persoon die het bevel geeft om een machine in te zetten, draagt verantwoordelijkheid voor die keuze.
Maar wiens schuld is het als een apparaat wordt gehackt of als er een fout optreedt in de software? Van de commandant? Van de overheid? Of van de maker? Met andere woorden: voor wiens rekening zijn de gevolgen?
Meer duidelijkheid nodig over de werking van AI
“We mogen computers nooit laten bepalen wie er wel en niet mag blijven leven”, waarschuwt Russell. Maar in bepaalde situaties zou AI wel kunnen helpen, zegt Eichelsheim. Bijvoorbeeld in de verdediging. Als een aanval met hypersonische raketten zo snel komt dat wij als mensen sowieso te laat zijn om in te grijpen. Dan zou een AI dat zelfstandig wél kunnen doen.
Maar dan moet wel helder zijn hoe de AI tot een beslissing komt. Kunstmatige intelligentie is nog vaak een zogeheten black box. We stoppen er een vraag in en er komt een antwoord uit, zonder dat we precies weten hoe de computer tot dat antwoord is gekomen. “Dat is voor ons niet goed genoeg”, zegt Walker. “Alles moet verklaarbaar zijn. Waarom vertelt de AI mij waar de vijand zich schuilhoudt? Hoe weet de AI welke wapens ze hebben? Hoe komt de computer daarbij? Op basis waarvan?”
Lege termen en mooie woorden
Minister Kajsa Ollongren (Defensie) prijst de discussies die tijdens de conferentie zijn gevoerd. Maar oplossingen, bijvoorbeeld in de vorm van een verdrag, kwamen er niet. “Het echte werk begint nu pas”, zegt ze. Het kabinet zei vorig jaar nog haast te willen maken met de regulering van autonome wapens.
Daan Kayser, projectleider autonome wapens van vredesorganisatie PAX, vindt het zorgwekkend dat autonome wapens niet hoger op de agenda stonden tijdens REAIM. “Deze conferentie was een grote kans om het dossier vooruit te helpen.”
Volgens Kayser bleef de conferentie te veel hangen in lege termen en mooie woorden. “Er wordt al jaren gesproken over wat militaire AI is en dat de verantwoordelijkheid voor beslissingen bij de mens moet liggen”, zegt hij. “Dit is een urgent probleem, Nederland had meer ambitie moeten tonen tijdens de conferentie. Bijvoorbeeld door te zeggen: ‘Wij willen dat er een verdrag komt. Dit zijn onze ideeën. Laten we daar over praten’.”
Minister Hoekstra ziet deze conferentie “duidelijk als een startpunt”. Hij noemt het belangrijk dat REAIM een signaal heeft uitgezonden aan andere landen, om ook volledige verantwoordelijkheid te nemen voor de inzet van militaire AI. “Op een manier die voldoet aan onze regels en waarden.”
-nu.nl-