Mensenrechten in tijden van robots en algoritmes

Het gebruik van kunstmatige intelligentie‚ robots en andere slimme apparaten kan gevolgen hebben voor tal van fundamentele mensenrechten‚ zoals het recht op privacy‚ een eerlijke rechtsgang en vrije meningsuiting. Hoe gaan we daarmee om?

‘Er vindt serieuze erosie van mensenrechten plaats’‚ waarschuwde het Rathenau Instituut in mei. En het gevaar komt voor velen uit onverwachte hoek. In het rapport Human rights in the robot age luidde de wetenschappelijke denktank de noodklok over de potentiële gevaren van digitale ontwikkelingen‚ zoals kunstmatige intelligentie‚ ‘slimme apparaten’ en robots.

Informatietechnologie wordt vaak gezien als een speeltje of een gadget’‚ zegt Rinie van Est‚ een van de auteurs van het rapport dat werd opgesteld op verzoek van de Raad van Europa. Veel mensen vinden Google‚ Facebook‚ smartphones en thermostaten die zelf nadenken in de eerste plaats handig of leuk. Maar die benadering miskent hoezeer ‘intieme technologie’ nu al ingrijpt in onze levens. Algoritmes bepalen welke informatie we wel of niet krijgen voorgeschoteld‚ slimme apparaten verzamelen meer gegevens over ons dan ooit tevoren‚ en dankzij de ontwikkelingen in de robotica en kunstmatige intelligentie kan er nu technologie worden gemaakt die sterk lijkt op mensen‚ somt Van Est op.

Het publieke en politieke debat over de gevolgen van al deze ontwikkelingen voor mensenrechten blijft volgens hem achter bij de duizelingwekkende snelheid waarmee de technologie de wereld verandert. Dat betekent overigens niet dat het sombermans troef is. Technische ontwikkelingen bieden volgens Van Est ook kansen. Mits goed ontworpen kunnen zorgrobots bijvoorbeeld een bijdrage leveren aan een menswaardig bestaan voor ouderen. ‘De digitalisering heeft tal van ethische en maatschappelijke implicaties. Maar voor veel mensen zijn die moeilijk te vatten. Net zoals klimaatverandering voor menigeen ook lange tijd abstract was. Pas als er zaken misgaan‚ neemt het bewustzijn toe.’

Rechtspraak door computers

Rechters zijn net mensen. Inclusief de bijbehorende vooroordelen en stemmingswisselingen. Met alle gevolgen voor verdachten van dien. Uit een analyse van de uitspraken van Israëlische rechters enkele jaren geleden bleek bijvoorbeeld dat gevangenen die kort voor de middagpauze in de rechtszaal moesten verschijnen een aanmerkelijk kleinere kans hadden om te worden vrijgelaten dan de gedetineerden die werden beoordeeld door rechters die net hadden geluncht. Zou het niet eerlijker zijn om dergelijk toeval uit te sluiten‚ bijvoorbeeld door de inzet van computers die nooit last hebben van een lege maag en vergelijkbare gevallen ook gelijk behandelen?

In de VS maken openbaar aanklagers en rechters al gebruik van mathematische modellen die de kans op recidive voorspellen: is die kans groter‚ dan krijgt een veroordeelde een hogere straf. Dat klinkt eerlijk‚ maar in de praktijk pakt het systeem ongunstig uit voor zwarte verdachten‚ schrijft de Amerikaanse wiskundige Cathy O’Neil in haar boek Weapons of math destruction. Niet omdat zwarten vaker recidiveren‚ maar omdat de algoritmes onder meer kijken naar eerdere contacten met de politie. Aangezien zwarte burgers vaker worden staande gehouden door de politie dan witte‚ hebben ze dus ook vaker ‘contact’ gehad met de politie. Van Est vindt daarom dat de gebruikte algoritmes openbaar moeten zijn‚ zodat iedereen kan zien hoe ze werken en met welke factoren ze rekening houden. ‘Bovendien moet de rechter eindverantwoordelijk blijven. Hij moet kunnen uitleggen hoe de kunstmatige intelligentie is gebruikt.’

Gedachtelezen

Als ze het willen‚ kunnen Google en Facebook zich een prima beeld vormen van de diepste zielenroerselen van hun gebruikers. Zoeken ze bijvoorbeeld urenlang naar informatie over een ernstige ziekte? Of bezoeken ze elke dag meermaals het profiel van hun ex? Surfgedrag kan veel zeggen over iemands persoonlijkheid: zaken als leeftijd‚ geslacht‚ seksuele voorkeur‚ etniciteit‚ geloofsovertuiging en politieke overtuiging zijn in veel gevallen makkelijk te raden. Het is informatie waarmee internetbedrijven zorgvuldig moeten omgaan. Des te pijnlijker was het dat de krant The Australian begin mei een document openbaar maakte waarmee Facebook adverteerders probeerde te werven. Op basis van berichten‚ foto’s en likes van gebruikers kan het sociale netwerk naar eigen zeggen onder meer vaststellen welke tieners zich ‘onzeker’ of ‘waardeloos’ voelen.

Volgens de neuro-ethicus Marcello Ienca en de mensenrechtenadvocaat Roberto Andorno is dat nog kinderspel bij wat er in de toekomst wellicht mogelijk wordt. Op basis van hersenscans zouden onderzoekers nu al redelijk kunnen aangeven welke politieke voorkeuren proefpersonen bijvoorbeeld hebben. Dankzij de snelle ontwikkelingen in de neurotechnologie zal het volgens Ienca en Andorno steeds makkelijker worden om toegang te krijgen tot informatie in het brein. Zij pleitten daarom eerder dit jaar in het wetenschappelijk tijdschrift Life Sciences‚ Society and Policy voor nieuwe mensenrechten‚ zoals het recht op ‘cognitieve vrijheid’ en ‘geestelijke privacy’‚ die ons moeten beschermen tegen partijen die onze gedachten willen lezen en manipuleren. Ienca en Andorno vrezen bijvoorbeeld dat er kwaadaardige hackers zullen komen die zullen proberen om onze hersenactiviteit te vervormen. Met name bij het gebruik van apparaten die kunnen worden aangestuurd met hersengolven (denk bijvoorbeeld aan rolstoelen) zou dat tot gevaarlijke situaties kunnen leiden.

Slimme apparaten volgen ons overal

Onze smartphones houden de hele dag bij waar we ons bevinden. Slimme thermostaten weten wanneer we onderweg zijn naar huis en beginnen de woning kort voor onze komst alvast te verwarmen. Fitness-trackers registreren hoeveel we bewegen en moedigen ons aan om ’s avonds nog een stukje te gaan rennen. Als we vervolgens inderdaad onze sportschoenen aantrekken en naar buiten gaan‚ begint de slimme lantaarnpaal feller te branden als hij ons in het zicht krijgt.

Handig allemaal? Of is het ook gevaarlijk dat allerhande apparaten ons voortdurend in de gaten houden? Mag Amazon weten welke passages iemand in een e-book onderstreept? Is het geen inbreuk op de privacy als de NS via de wifi-functie op smartphones in kaart brengt hoe reizigers door het station lopen? En wat te denken van camera’s die dankzij gezichtsherkenning kunnen registreren wie de rosse buurt bezoekt? ‘De afgelopen dertig jaar hebben we ons voornamelijk druk gemaakt over welke gegevens er over ons worden verzameld. Die data worden nu steeds meer gebruikt om ons te profileren en om te interveniëren in ons leven’‚ constateert Van Est. Tot voor kort kon je je pc nog uitzetten als je niet gevolgd wilde worden‚ maar dankzij de alomtegenwoordigheid van slimme apparaten hebben mensen die keuze niet meer. Van Est pleit daarom voor het ‘recht om niet gemeten‚ geanalyseerd of gecoacht te worden’‚ een uitwerking van het klassieke ‘recht om met rust gelaten te worden’.

Geprogrammeerde ouderenzorg

Door de vergrijzing en het personeelstekort in de ouderenzorg ligt het voor de hand om een deel van de zorg voor bejaarden over te dragen aan robots. Die hebben immers eindeloos geduld en kunnen bovendien 24 uur per dag klaarstaan voor hulpbehoevende mensen. Van Italië tot Japan vinden er al testen plaats met robots die ouderen naar de eetzaal begeleiden en hen eraan herinneren dat ze hun medicijnen moeten nemen. Hoe beter en goedkoper die robots worden‚ hoe vaker ze zullen worden ingezet. Maar zorgrobots zorgen ook voor nieuwe dilemma’s. Gaat de inzet van robots niet ten koste van menselijk contact? Blijven familie en verplegers weg omdat de robot de zorgtaken ook prima vervult? Rinie van Est van het Rathenau Instituut pleit daarom in het rapport voor het recht op ‘betekenisvol menselijk contact’. ‘Is het voor dementerenden duidelijk wat of wie ze voor zich hebben?’‚ vraagt hij zich af. Gaat een bejaarde straks meer hechten aan een robot dan aan zijn kleinkind?

Het zijn niet de enige vragen die beantwoord moeten worden. ‘In hoeverre mag een robot dwingend zijn? Kan hij een oudere dwingen om te eten of zijn medicijnen te nemen? Mag een robot verhinderen dat iemand naar buiten gaat?’ Voor een menswaardige omgang moet volgens Van Est al in het ontwerp van de robots rekening worden gehouden met de wensen van ouderen. ‘Zo bleek dat ouderen in Zuid-Korea het heel onaangenaam vonden als het bord met eten vlak voor hun hoofd werd gehouden. Ze willen eten als normale mensen.’ De ontwikkelaars van de My Spoonrobot ontwierpen daarom een robotarm die het eten gewoon van een bord op tafel pakt en naar de mond brengt. ‘Zo’n eetrobot is lastiger om te bouwen‚ maar zorgt er wel voor dat ouderen hun waardigheid behouden.’

 

Meer over dit onderwerp