“Transparante technologie is een mensenrechtenkwestie”

NL

Share on facebook
Share on linkedin
Share on twitter

Nani Jansen Reventlow is een Nederlandse mensenrechtenadvocaat, gespecialiseerd in zogeheten ‘strategische procedures’ die gerelateerd zijn aan de vrijheid van meningsuiting. Ze is de oprichter en directeur van het Digital Freedom Fund, docent rechten aan Columbia Law School en sinds 2016 adviseur van de Cyberlaw Clinic van Harvard. In gesprek met haar gaan we in op hoe strategische procedures helpen de digitale rechten in Europa te beschermen, de maar weinig transparante technologiemarkt, en hoe het idee van ‘maatschappelijk verantwoorde AI’ in de eerste plaats vooral goede marketing is.”

Waarom doet online privacy ertoe?

Privacy is op zichzelf een belangrijk mensenrecht, maar heeft indirect ook veel invloed op andere mensenrechten, zoals het recht op de vrijheid van meningsuiting. Vanwege de covid-pandemie en lockdowns zijn we voor werk, onderwijs en gezondheidszorg sterker afhankelijk geworden van technologie. En zien we hoe belangrijk online privacy is.. Welke platforms worden er bijvoorbeeld gebruikt voor thuisscholing? Welke gegevens worden er van kinderen verzameld en met wie worden die gegevens gedeeld? Het antwoord op deze vragen kan verstrekkende gevolgen hebben voor het leven van de toekomstige generaties.

Een ander goed voorbeeld zijn natuurlijk de verkiezingen. Gebeurtenissen zoals de onthullingen van Cambridge Analytica hebben laten zien wat er kan gebeuren als onze privacy niet voldoende gewaarborgd wordt. Wat er kan gebeuren als de informatie die anderen over ons hebben, ons kwetsbaar maken voor allerlei soorten aanvallen op onze mensenrechten. Bijvoorbeeld het recht om vrijelijk te kunnen beslissen op wie we stemmen.

Kunt u iets vertellen over de reden waarom het Digital Freedom Fund is opgericht?

Het Digital Freedom Fund ondersteunt (Europese) rechtszaken op het gebied van digitale rechten. Dit doen we financieel, maar ook door mensen in contact te brengen met de betrokkenen bij vergelijkbare rechtszaken, belangenbehartiging en andere activiteiten om de mensenrechten te beschermen. 

Met digitale rechten bedoelen we eigenlijk mensenrechten in een digitale context, inclusief privacy, databescherming, en de vrijheid van meningsuiting. Maar in sommige gevallen kan het dus ook betrekking hebben op economische, sociale en culturele rechten in het digitale domein. 

Met strategisch procederen proberen we een brede maatschappelijke verandering te bewerkstelligen, en nemen we dus niet genoegen met enkel een goede uitkomst in een rechtszaak. Je probeert een systeemverandering voor elkaar te krijgen: een wetswijziging, een beleidswijziging of een wijziging in de manier waarop dat beleid in de praktijk wordt toegepast. Zodra een toezichthouder niet snel genoeg kan of wil optreden, kunnen dit type procedures een belangrijk instrument vormen. De zaak hoeft niet per se gewonnen te worden. Als het erin slaagt om het publieke debat, de belangstelling en soms de verontwaardiging over een onderwerp op gang te brengen, zou je heel goed alsnog de doelen kunnen bereiken die aan de zaak ten grondslag liggen.

Met een andere organisatie, Catalysts for Collaboration ,willen we mensen aanmoedigen om samen te werken aan dergelijke gevallen, over disciplinaire silo’s heen. Dit doen we vanuit de gedachte dat een goede strategische zaak meer is dan alleen het stuk dat in de rechtbank uitgevochten wordt. Het is een combinatie van een goede juridische strategie, een effectieve publiekscampagne, beleidswerk, lobbyen, en ga maar door. Als het gaat om technisch complexe zaken moet je ook in staat zijn om ingewikkelde technologie uit te leggen aan een rechter, en het bredere publiek. Wij adviseren hoe je dit het beste voor elkaar kan krijgen.


Dit zijn grote, filosofische vragen: wat zijn nou de situaties waarin we willen dat technologie géén beslissingen voor ons neemt?

Heeft u een toename gezien van strategische procedures sinds de inwerkingtreding van de GDPR? 

GDPR opent deuren naar een ander soort procesvoering dan we gewend zijn, omdat het individuen in staat stelt hun rechten zelf af te dwingen. En ook vanwege de mogelijkheid om een collectieve rechtszaak te starten. Dat is echt een gamechanger voor veel rechtsgebieden. Maar ik denk wel dat nog steeds een groot deel van de GDPR onverkend terrein is. Hoewel er inmiddels een stuk actiever werk gemaakt wordt van strategische procedures, denk ik dat er wel een schep bovenop zou kunnen. 

Hoe zetten overheden technologie en in het bijzonder artificiële intelligentie (AI) in om beslissingen te nemen, en wat zijn de gevolgen daarvan?

Ik denk dat het belangrijkste probleem het gebrek aan transparantie is. We weten vaak niet in welke beslissingen in welk deel van een proces genomen worden. Dat maakt het moeilijk om te onderzoeken óf onze mensenrechten zijn geschonden, op welke manier dat is gebeurd en wat we er tegen kunnen doen. Kortom, er zijn momenteel geen duidelijke regels over transparantie.

Door dergelijke ontwikkelingen is het verleidelijk om technologie als een ‘black box’ te zien, als iets ontembaars dat een eigen wil heeft en wat lastig te controleren is. Technologie blijft echter mensenwerk. Mensen kiezen er zelf voor om iets wel of niet openbaar te maken. Kijk naar bedrijven, zij vinden het belangrijk om hun IP-adres te bewaken, en maken deze onzichtbaar. Daarbij is er weinig druk vanuit toezichthouders om hen tot transparantie te dwingen, terwijl dit zeker binnen de mogelijkheden valt. Bedrijven kunnen wel degelijk transparantie inbouwen en de mogelijkheid bieden om te bekijken wat er binnen die systemen en algoritmen gebeurt, áls ze dat maar zouden willen.

Er zijn veel voorbeelden van technologie die wordt gebruikt om beslissingen te nemen die mensen op vele manieren hebben benadeeld. Het debat over gezichtsherkenning en de onevenredige impact die het heeft op gemarginaliseerde groepen, wordt nog niet onderzocht. En er is de hele kwestie van toegang. In het VK hebben mensen met Universal Credit bijvoorbeeld geen toegang tot voordelen waar ze recht op hebben, omdat ze niet door het systeem kunnen navigeren. En in Nederland liet de SyRI-casus (systeemrisico-indicatie) zien hoe verschillende databases met elkaar waren verbonden om de kans op fraude te detecteren, en die mensen vervolgens aan nader onderzoek te onderwerpen. De rechtbank oordeelde dat het gebruik van SyRI het recht op privacy van individuen schond.

Dus hoe ziet maatschappelijk verantwoorde AI er dan wél uit, en welke grenzen hebben we nodig om dat mogelijk te maken?

De term ‘maatschappelijk verantwoorde AI’ is vooral goede marketing. Voor mij is het pas maatschappelijk verantwoord als het voldoet aan alle mensenrechten en binnen duidelijk vastgestelde grenzen opereert. We moeten rode lijnen trekken bij de onderwerpen waar technologie geen rol hoort te spelen. Helaas gaat veel van het debat hieraan voorbij. 

Dit zijn grote, haast filosofische vragen: wat zijn nou de situaties waarin we willen dat technologie géén beslissingen voor ons neemt? Ik heb er lang over nagedacht, maar ben er nog niet over uit waar die rode lijn zich precies bevindt. Wel heb ik het gevoel dat beslissingen over leven en dood zeker buiten die grens hoort te liggen.

Maakt u zich zorgen over de wijze waarop deze technologie tijdens de Covid-19-pandemie wordt gebruikt?

Heel erg. Het ‘technologie is de oplossing’-narratief won al in een vroeg stadium aan populariteit. En daar maakten grote technologiebedrijven natuurlijk dankbaar gebruik van. Maar ik begrijp tegelijkertijd ook dat regeringen met een ongekende situatie te maken hadden, en er veel druk lag op een snelle oplossing. Het is bijna een reflex geworden – investeer in technologie en het wordt je redding. 

Maar onderaan de streep komt het er vooral op neer, dat veel van deze apps, dashboards en tools uitgerold worden zonder dat er van tevoren een aannemelijke reden wordt gegeven over hoe dit een verschil gaat maken. Er schuilt ook een bijna angstaanjagende bereidheid in om bepaalde groepen mensen achter te laten. Als je bijvoorbeeld kijkt naar hoeveel mensen de gemiddelde covid-19 app zouden moeten gebruiken om deze effectief te laten zijn, brengt dat allerlei aannames met zich mee. Bijvoorbeeld dat iedereen de nieuwste smartphone heeft, constant verbonden is met internet, en geen gebruik maakt van andermans telefoon. 

Wat gebeurt er met alle mensen die niet aan deze criteria voldoen? Je richt je eigenlijk alleen op het beschermen van een hele specifieke groep mensen in de samenleving.

Wat kunnen mensen doen om hun online gegevens beter te beschermen?

Zorg ervoor dat je een lokale digitale rechtenorganisatie volgt. In het VK zijn er bijvoorbeeld de Open Rights Group, Big Brother Watch, Privacy International en Liberty. In Nederland zijn er Bits of Freedom en anderen. Deze organisaties hebben zich scherp uitgesproken over de risico’s binnen corona-apps, en andere problemen die technologie met zich meebrengt.

Vergeet ook niet kritisch te blijven. Als je van een gratis dienst gebruikt maakt, stel je dan de vraag of dit wel écht gratis. Of betaal je op een andere manier, met persoonlijke data bijvoorbeeld? Niemand heeft de tijd om de algemene voorwaarden van al deze sites te lezen, maar je kan wel vrij gemakkelijk informatie vinden over wat bepaalde apps en platforms met je gegevens doen. En houd ook echt je privacy-instellingen in de gaten, net als de apparaten waarmee je ingelogd bent. Het is een hele klus, maar tegelijkertijd zou je niet op vakantie gaan en je ramen open laten of je deur niet op slot. Het gaat om bewustwording van het feit dat er plekken zijn waar andere mensen je rechten kunnen misbruiken, net zoals in de fysieke wereld.

Leave a Reply

Your email address will not be published.