De robot wijst huizen van Hamasstrijders aan
Sociale media, hackers en algoritmes: tech-journalist Gerard Janssen legt in deze rubriek uit waar het botst met mensenrechten. Deze keer: hoe Israël een robot gebruikt om huizen van Hamasstrijders aan te wijzen.
In 2017 verscheen het filmpje Slaughterbots: een lezing van een denkbeeldige CEO uit de wapenhandel. Hij heeft een drone in zijn hand, ter grootte van een vogeltje. De drone laat hij door de zaal vliegen, op zoek naar een slachtoffer. Uiteindelijk vindt hij zijn doelwit. Een etalagepop met unieke gezichtskenmerken. De drone landt op het voorhoofd en schiet een projectiel door de denkbeeldige schedel. ‘Ze zeiden ooit dat pistolen geen mensen vermoorden, maar dat mensen dat doen’, zegt de fictieve CEO, ‘maar mensen doen dat niet. Ze worden emotioneel. Ze zijn ongehoorzaam. Ze mikken te hoog.’
Laat de zwerm los
Het filmpje is bedacht door wetenschapper Stuart Russell voor het Future of Life Institute. Dat is een beetje een vage stichting die zich zorgen maakt over het uitsterven van de mensheid. Russell is een grootheid in de kunstmatige intelligentie en is bezorgd over autonome wapens. Hij merkte dat hij zijn zorgen moeilijk kon overbrengen aan beleidsmakers. Vandaar het filmpje.
Halverwege het filmpje zien we grote zwermen van deze slaughterbots uit de laadruimte van een vrachtvliegtuig komen. ‘Genoeg om een halve stad te doden’, zegt de commentator. ‘De slechte helft. Kernwapens zijn verouderd. Schakel je vijand vrijwel zonder risico uit. Karakteriseer hem gewoon, laat de zwerm los en rust lekker uit.’ We zijn nu bijna zeven jaar verder en kunstmatige intelligentie wordt inderdaad ingezet in oorlogen. Niet dat er zwermen slaughterbots door Oekraïne of Gaza vliegen op zoek naar bekende gezichten. Want de toekomst is altijd anders dan verwacht, maar niet minder dodelijk.
‘A Mass Assassination Factory’
Onlangs verscheen in het Israëlische +972 Magazine het artikel ‘A Mass Assassination Factory’. Anonieme bronnen vertellen hoe kunstmatige intelligentie gebruikt wordt om huizen van Hamasstrijders aan te wijzen. Een AI-algoritme berekent welke huizen een doelwit worden. Hoe het systeem tot conclusies komt, is voor mensen onnavolgbaar. Helemaal autonoom is het systeem niet: er wordt nog wel door een mens naar gekeken, maar dat kan nooit lang zijn.
Op de website van de Israëlische wapenfabrikant Elbit staat hoe het AI inzet om wapens te verbeteren. Trots meldt het bedrijf dat de nieuwe AI-technologieën ‘de cognitieve belasting van grondtroepen tijdens operaties’ reduceren. In mei 2023 bestelde Defensie voor 305 miljoen dollar een raketsysteem van Elbit.
Goed nieuws
In het artikel in +972 Magazine verwijzen de auteurs ook naar de website van de Israel Defence Forces (IDF), waar te lezen is dat het systeem het mogelijk maakt om heel snel doelwitten te genereren. Met behulp van kunstmatige intelligentie en inlichtingenmateriaal doet het daarna een aanbeveling. In het ideale geval vallen het advies van de machine en de door een mens bepaalde doelen precies samen. IDF prijst het systeem aan als een van de ‘habsora’s’ van deze oorlog. Vrij vertaald betekent habsora ‘goed nieuws’. Het is ook het Hebreeuwse woord voor ‘het evangelie’.
Het lost een probleem op waar ik niet eerder over hoorde: dat het in een oorlog een uitdaging is om steeds weer nieuwe doelwitten te bepalen. ‘Het genereert honderd nieuwe doelwitten op een dag’, zo zegt voormalig IDF-chef Aviv Kochavi trots. ‘Om dat in perspectief te plaatsen: in het verleden produceerden we vijftig doelwitten per jaar.’ Of in de woorden van Stuart Russell: ‘Als je het vermogen om te doden overdraagt aan de machine, kun je zoveel dood hebben als je wilt.’