Nederland, maak een einde aan gevaarlijke politie-experimenten met massasurveillance
De Nederlandse politie moet een einde maken aan het gebruik van algoritmische systemen die leiden tot massasurveillance en etnisch profileren. Dat stelt Amnesty International in een vandaag verschenen rapport dat de mensenrechtenrisico’s van ‘predictive policing’ blootlegt.
Het rapport We Sense Trouble: Automated Discrimination and Mass Surveillance in Predictive Policing in the Netherlands beschrijft de gevaren van ‘predictive policing’, een werkwijze die steeds meer wordt gebruikt door de Nederlandse politie. De predictive policing-projecten, die de politie ‘proeftuinen’ noemt, gebruiken wiskundige modellen om het risico in te schatten dat door een bepaalde persoon of op een bepaalde locatie een strafbaar feit wordt gepleegd. De politie richt haar inzet vervolgens op de personen of locaties die aangemerkt worden als ‘hoog risico’.
Sensing-project in Roermond
Een van deze voorbeelden is het Sensing-project in Roermond. Bij dit project probeert de politie mobiel banditisme in Roermond te voorkomen. De politie gebruikt de term ‘mobiel banditisme’ voor verschillende vermogensdelicten, zoals zakkenrollerij en winkeldiefstal. Volgens de politie zijn het vooral mensen uit Oost-Europese landen die zich hieraan schuldig maken. Bij het Sensing-project worden gegevens geregistreerd van alle voertuigen die in en om Roermond rijden.
‘Wat tot voor kort in sciencefiction-films te zien was, is werkelijkheid geworden voor miljoenen mensen in Nederland’, zegt Merel Koning, senior beleidsadviseur technologie en mensenrechten bij Amnesty International. ‘Dit predictive policing-project onderwerpt mensen aan massasurveillance. Dat is nooit gerechtvaardigd.’
Massasurveillance in Roermond
Door het gebruik van camera’s en andere sensoren houdt de politie systematisch alle mensen in de gaten die in en rond Roermond rijden. En verzamelt informatie over voertuigen en bewegingspatronen. Deze gegevens worden vervolgens verwerkt in een algoritmisch model dat een ‘risicoscore’ berekent voor ieder voertuig. De politie gelooft dat dit informatie geeft over de kans dat bepaalde bestuurders en inzittenden in de stad zijn om een strafbaar feit te plegen.
Als een voertuig als ‘hoog risico’ wordt aangemerkt, probeert de politie om de auto staande te houden om de bestuurder en inzittenden te controleren. De Nederlandse wet beschermt mensen onvoldoende tegen dit soort willekeurige en discriminerende politiecontroles.
‘De inwoners van Roermond, en mensen die naar de stad reizen, worden eigenlijk gebruikt als proefkonijn in een experiment waarvoor ze geen toestemming hebben gegeven. Het Sensing-project leidt tot een schending van hun recht op privacy, databescherming en non-discriminatie’, zegt Merel Koning.
Vooroordelen en discriminerend
Predictive policing-methodes worden vaak aangeprezen als ‘objectief’ en ‘neutraal’. Ook volgens de Nederlandse politie is het systeem neutraal en gebaseerd op objectieve criminaliteitscijfers. Dit klopt echter niet: vooroordelen en stereotypen beïnvloeden de modellen en algoritmes. En dat leidt tot discriminerende uitkomsten met hogere risicoscores voor bepaalde maatschappelijke bevolkingsgroepen, zoals in dit geval mensen uit Oost-Europa.
Oproep Amnesty International
Het is duidelijk dat het Sensing-project discrimineert en is ontworpen om vooral mensen met een Oost-Europese nationaliteit te profileren en tot doelwit te maken. De Nederlandse autoriteiten moeten een einde maken aan het Sensing-project en vergelijkbare experimenten.
Amnesty International pleit voor een verplichte, bindende mensenrechtentoets voor het gebruik van predictive policing-technologieën.
Meer informatie
Lees meer over Amnesty’s inzet op het gebied van etnisch profileren en de mensenrechtenrisico’s van algoritmen en kunstmatige intelligentie.
Kom in actie
Roep de Autoriteit Persoonsgegevens op om onze gegevens beter te beschermen.
Bekijk onze video
Wat zij algoritmes nu precies? En hoe kunnen ze discrimineren? In onze video hieronder wordt alles haarfijn uitgelegd.