Bommen droppen, of stoppen, op advies van AI
Sociale media, hackers en algoritmes: tech-journalist Gerard Janssen legt in deze rubriek uit waar het botst met mensenrechten. Deze keer: Democratisch verantwoorde technologie, bestaat dat?
Deze herfst bezocht Serhii Demediuk, plaatsvervangend secretaris van de Oekraïense Nationale Veiligheids- en Defensieraad, Nederland. Bij de One Conference, een jaarlijkse cybersecurityconferentie in Den Haag, sprak hij in een kleine perszaal een handjevol journalisten toe. Daar hoorde ik voor het eerst over het bedrijf Helsing.
‘Ze helpen ons enorm’, zei Demediuk. ‘Met hun producten kunnen we de middelen minimaliseren die nodig zijn om de vijand te identificeren. Maar ik kan niet te veel in detail treden. Wel kan ik vertellen dat nationale eenheden en internationale partners AI gebruiken om de vijand te identificeren en uit te schakelen.’
AI-overname
Een snelle zoektocht op Google leert dat Helsing een Europees defensietechnologiebedrijf is dat zich richt op kunstmatige intelligentie (AI) voor militaire en veiligheidsdoeleinden. Het bedrijf is opgericht in 2021, en werkt aan de ontwikkeling van AI-gestuurde software om de effectiviteit van strijdkrachten in democratische landen te vergroten.
‘Artificial intelligence to serve our democracies’, zo luidt de slogan van dit Duitse bedrijf. En het doet goede zaken. Gaza en Oekraïne zijn inmiddels proeftuinen voor de wapenindustrie, waarin AI een belangrijke rol speelt. Niet dat er al volledig autonome drones of robots actief zijn. Het is vooral dat AI het selecteren van doelwitten makkelijker maakt. Luchtfoto’s, radarbeelden en telefoondata worden gecombineerd om te voorspellen waar ‘de vijand’ schuilt.
Volledig autonome AI-systemen zijn het niet; mensen geven nog steeds goedkeuring voordat een raket wordt afgevuurd. Maar je kunt je voorstellen wat er gebeurt als AI veel voorspellingen doet, waarvan er ook veel lijken te kloppen. Mensen zullen steeds makkelijker de kunstmatig intelligente keuzes vertrouwen, ook al begrijpen ze deze niet volledig. Dit leidt er in de praktijk vooral toe dat er veel meer bommen veel sneller achter elkaar worden gegooid. Zoveel meer, dat het bijna niet meer bij te houden is.
Democratische technologie
‘Kunstmatige intelligentie om onze democratie te dienen’ klinkt bijna als een contradictio in terminis. Toch bestaat het wel.
Neem de journalist Christoph Koettl. Ooit werkte hij voor Amnesty International, nu is hij werkzaam bij het Visual Investigations-team van de New York Times. Zijn expertise is het analyseren van radarbeelden met AI. In feite doet hij hetzelfde als de militairen. Maar in plaats van doelwitten te identificeren, speurt Koettl naar bomkraters. Bomkraters met een diameter van meer dan 12 meter, om precies te zijn. Ze zijn de aandenkens van zware 2000-pondbommen. Dergelijke bommen zijn zo zwaar dat de drukgolf tot op een kilometer afstand slachtoffers kan maken.
Het vinden van deze kraters op radarbeelden, kost erg veel tijd. Daarom gebruikt Koettl AI om potentiële locaties van deze kraters aan te wijzen. Zo ontdekte hij meer dan tweehonderd kraters in het zuiden van Gaza – waar Israël de Palestijnen naartoe had gestuurd met de belofte dat ze er veilig zouden zijn.
Koettls onderzoek leidde ertoe dat de VS – althans tijdelijk – stopten met de levering van deze zware bommen aan Israël. Koettl laat zien dat AI ook goed gebruikt kan worden. Het probleem is wel dat weinig investeerders daar warm voor lopen. En Helsing haalde deze zomer 450 miljoen euro op.