Het Israëlische leger heeft kunstmatige intelligentie gebruikt om zo snel en zoveel mogelijk doelen in de Gazastrook te identificeren, zeggen Israëlische inlichtingenbronnen. Van bovenaf kwam druk om hard terug te slaan naar Hamas, ook als dat veel slachtoffers zou betekenen. De informatie komt uit getuigenverklaringen van zes Israëlische inlichtingenbronnen die zijn verschenen in het tijdschrift +972 en op de nieuwssite Local Call. The Britse krant The Guardian kreeg inzage in de verklaringen over het gebruik van kunstmatige intelligentie door het Israëlische leger. De bronnen spreken van een AI-systeem met de codenaam Lavender.
Daarmee kon het leger kort na de aanval van Hamas op Israël snel mogelijke strijders identificeren en doelen bepalen. Het Israëlische leger zegt in een reactie op de publicatie tegen The Guardian dat het AI-systeem een aanvulling was op bestaande inlichtingenbronnen. Het leger heeft het systeem naar eigen zeggen alleen als hulpmiddel gebruikt bij het bepalen van doelen. Maar daarbij ging het systeem niet heel selectief te werk, zeggen de inlichtingenofficieren.
“Op een zeker moment had het AI-systeem 37.000 Palestijnen aangemerkt als lid van Hamas of de Palestijnse Islamitische Jihad.” Onder hen waren ook burgerwachten en politieagenten. Het AI-systeem zorgde er ook voor dat er een lijst ontstond van doelen in Gaza die zonder toestemming van hogerhand gebombardeerd konden worden. Het aanmerken van mensen als potentieel doelwit was voorheen een tijdrovend proces, zeggen de bronnen. Er gingen vergaderingen aan vooraf en er waren juristen bij betrokken. Maar na de inval van Hamas op 7 oktober moest dat sneller. “We werden flink onder druk gezet van hogerhand: ‘Vind meer doelen!’, werd er geschreeuwd. We moeten koste wat kost Hamas raken.
-nu.nl-