Wereldwijde genderongelijkheid door technologiesystemen
Over de hele wereld versterken verschillende technologiesystemen de ongelijkheid tussen mannen en vrouwen en verankeren ze raciale en sociaaleconomische machtssystemen. Dat schrijft Amnesty International in het rapport Gender and Human Rights in the Digital Age.
Gegevens worden onjuist en uitgebreid verzameld, hierdoor staan de mensenrechten van gemarginaliseerde groepen, waaronder vrouwen en lhbtqia+-personen onder druk.
Regeringen rechtvaardigen tactieken voor het verzamelen van gegevens als een kostenbesparende oplossing, bijvoorbeeld voor het betalen van uitkeringen via geautomatiseerde systemen. Terwijl Big Tech– bedrijven persoonlijke gebruikersgegevens bewaren en inzetten voor hun lucratieve, op surveillance gebaseerde bedrijfsmodellen.
Deze ongereguleerde verzameling en verwerking van enorme hoeveelheden gegevens is niet alleen een vorm van schadelijke massasurveillance, maar verankert ook discriminatie van vrouwen en lhbtqia+-mensen.
‘Van de ongereguleerde implementatie van digitale ID-systemen tot algoritmes die worden gebruikt bij systemen voor sociale uitkeringen: er is een groeiende trend om technologie te integreren in elk aspect van het dagelijks leven,’ zegt Imogen Richmond-Bishop van Amnesty International. ‘Dit terwijl er wereldwijd al een “digitale kloof” tussen mannen en vrouwen bestaat, waarbij de toegang tot technologie voor sommigen beperkt is door patronen van historische ongelijkheid.’
De digitale kloof
De toegang tot digitale technologie is vaak zeer ongelijk. Er blijft een wereldwijde “digitale kloof” bestaan, waarbij de toegang tot technologie wordt beperkt door patronen van historische ongelijkheid op basis van onder andere ras, geslacht, beperking, leeftijd of inkomen.
70 Procent van de mannen maakt gebruik van het internet, tegenover 65 procent van de vrouwen. Dit betekent dat er in 2023 wereldwijd 244 miljoen meer mannen dan vrouwen gebruik maakten van het internet. Bovendien zijn vrouwen en mensen van kleur sterk ondervertegenwoordigd in technische vakgebieden en in de financiële sector die aan de basis ligt van veel technologiebedrijven en platforms. Dit kan leiden tot impliciete vooroordelen en discriminatie wanneer technologieën worden ontworpen en onderhouden op een manier die geen rekening houdt met de behoeften van mensen buiten de machtscentra.
Informatie over abortus verwijderd
Naast de digitale kloof zijn er verschillende andere barrières waar vrouwen, meisjes en lhbtqia+’ers mee te maken krijgen. Bijvoorbeeld bij de toegang tot informatie over seksuele en reproductieve gezondheid, rechten en diensten, zoals abortus.
Wanneer overheden of sociale mediaplatforms de toegang tot gezondheidsinformatie beperken kan dit een schending van het recht op gezondheid inhouden. Deze trend neemt toe in de Verenigde Staten, waar activisten en organisaties voor abortusrechten hebben gemeld dat abortusgerelateerde content op Meta en TikTok is verwijderd. Hierdoor hebben mensen geen toegang tot levensreddende informatie.
Vooroordelen in algoritmes
Uit onderzoek van Amnesty International naar TikTok bleek dat het bedrijf de persoonlijke kenmerken van een gebruiker, waaronder geslacht en interesses, afleidt uit de informatie die het over hen heeft om inhoud en advertenties te personaliseren en aan te passen. Systemen die algoritmes gebruiken om inhoud op sociale mediaplatforms te promoten, kunnen ook vooroordelen in de hand werken door schadelijke en discriminerende inhoud te versterken.
Gerichte digitale surveillance door het gebruik van spyware kan een vorm van door technologie gefaciliteerd gendergerelateerd geweld zijn. Vrouwen en lhbtqia+-personen zijn het doelwit en worden in de gaten gehouden wanneer ze zich inzetten voor mensenrechtenactivisme.
Geen X in het Pakistaanse paspoort
In Pakistan hief de National Database and Registration Authority (NADRA) de ‘X’-categorie op bij geautomatiseerde nationale identiteitskaarten op. Met deze categorie konden personen met een ander geslacht dan man of vrouw zich identificeren. Door deze beslissing zaten duizenden trans personen en personen met genderdiversiteit zonder geldige identiteitsdocumenten. Ze konden hierdoor niet stemmen en geen toegang krijgen tot gezondheidszorg of werkgelegenheid. De registraties onder de categorie ‘X’ werden hervat in september 2023.
Digitale surveillance in Thailand
Onderzoek van Amnesty International naar Thailand heeft aangetoond hoe activisten het doelwit zijn van digitale surveillance en online intimidatie door overheids- en niet-overheidsactoren. Dit heeft zeer schadelijke gendergerelateerde gevolgen voor vrouwen en lhbtqia+-mensenrechtenactivisten. Dergelijke schadelijke aanvallen, onder andere met de beruchte Pegasus spyware, hebben in sommige gevallen geleid tot zelfcensuur of het opgeven van activisme.
Vrouwen en lhbtqia+-activisten in Thailand werden ook blootgesteld aan vormen van online intimidatie, waaronder doxing (het publiceren van persoonsgegevens), lastercampagnes, bedreigingen en beledigende berichten, met als doel hen te intimideren en het zwijgen op te leggen.
‘Het is van cruciaal belang dat overheden en particulieren een expliciet genderinclusieve benadering hanteren bij het reguleren van technologieën en het aanpakken van de schadelijke kant ervan.’ zegt Richmond-Bishop. ‘Als deze systemen discriminatie en ongelijkheid voor vrouwen en lhbtqia+-ers in stand houden, moeten ze niet worden gebruikt’.
Eerdere onderzoeken van Amnesty International
In 2021 publiceerde Amnesty International een rapport over het toeslagenschandaal in Nederland,‘Xenophobic machines – Discrimination through unregulated use of algorithms in the Dutch childcare benefits scandal’. Het rapport focust op een klein subonderdeel van het toeslagenschandaal. De conclusie van het onderzoek is dat de algoritmes die de Belastingdienst gebruikte voor controle van foutieve aanvragen met kinderopvangtoeslag en fraude tot etnisch profileren hebben geleid.
In 2023 verscheen het onderzoek van Amnesty International, Trapped by Automation: Poverty and Discrimination in Serbia’s Welfare State. Hierin wordt gedocumenteerd hoe veel mensen, met name Roma en mensen met een beperking, hun rekeningen niet konden betalen, geen eten op tafel konden zetten en moeite hadden om de eindjes aan elkaar te knopen na de invoering van een Sociale Kaart-register waarna zij werden uitgesloten van sociale bijstand.
In 2024 publiceerde Amnesty International een technische uitleg over het Samagra Vedika-systeem dat wordt gebruikt in de Indiase deelstaat Telangana. Dit volgde op berichten in de media waarin werd beweerd dat Samagra Vedika duizenden mensen uitsluit van toegang tot sociale beschermingsmaatregelen, waaronder maatregelen op het gebied van voedselzekerheid, inkomen en huisvesting.