Niks meer missen?
Schrijf je in voor onze nieuwsbrief!
Foto: Bram Belloni
wetenschap

‘Gezichtsherkenning is een open paspoort op je hoofd geplakt’

Sija van den Beukel,
6 april 2023 - 14:58

Gezichtsherkenning vormt een gevaar voor de democratie, stelt UvA-hoogleraar Critical Data Studies Stefania Milan. Daarover spreekt ze op Goede Vrijdag, tijdens de Nacht van de Filosofie. ‘Anders dan vrede of vrouwenrechten, is gezichtsherkenning een onderwerp waar mensen zich maar moeilijk iets bij voor kunnen stellen.’

Stel je loopt over straat in Amsterdam. Dan kan het zijn dat je in het gezichtsveld loopt van een gezichtsherkenningscamera. Deze camera legt niet je blauwe ogen vast, maar de kenmerkende afstanden tussen je gelaatstrekken en de manier waarop je loopt. Die data worden in real-time vergeleken met datasets, afkomstig van onder andere sociale media scrapingScraping is een techniek waarbij software wordt gebruikt om informatie van webpagina’s te halen en politiearchieven en gedeeld met het politiebureau, de staat en private partijen die nodig zijn om de software te leveren.

 

Dat maakt gezichtsherkenning zo fundamenteel verschillend van normale videobewaking, zegt hoogleraar Critical Data Studies Stefania Milan. Sinds februari wijdt Milan zich dankzij een beurs van NiasHet Netherlands Institute for Advanced Studies (NIAS) is een onderdeel van de Koninklijke Akademie van Wetenschappen. Het geeft beurzen uit waardoor wetenschappers een tijd lang onderzoek kunnen doen zonder dat zij andere taken hoeven uit te voeren. aan onderzoek naar of en hoe burgers zich organiseren voor gezamenlijke actie tegen gezichtsherkenning. ‘Gezichtsherkenning legt je identiteit op straat. Het is letterlijk alsof je door de stad loopt met een open paspoort op je hoofd geplakt. Dat heeft invloed op ons burgerschap en op de rol van de staat.’

 

Ondertussen sluipt geautomatiseerde gezichtsherkenning de publieke ruimte steeds verder binnen, terwijl de regelgeving achterblijft. Het wordt geïmplementeerd om sneller aan boord van een vliegtuig te kunnen gaan, of om wetsovertreders te identificeren. De politie heeft inmiddels kaders ontwikkeld om de gezichtsherkenningstechnologie operationeel in te kunnen gaan zetten.

Foto: UvA
Stefania Milan: ‘Gezichtsherkenning is opdringerig, ontmenselijkend en creëert ongelijkheid’

Toestemming

Dat gebeurt grotendeels buiten de burger om, ziet Milan. ‘Er wordt zelden aan de burger gevraagd om toestemming voor het gebruik van gezichtsherkenning. Dat hoeft niet via een referendum te gaan, dat kan ook via een debat in de gemeenteraad.’

 

Die inspraak is belangrijk volgens Milan, omdat gezichtsherkenning invloed heeft op iedereen. ‘We worden allemaal vastgelegd. Zelfs als je niets te verbergen hebt, neem je deel aan een systeem van surveillance dat burgers ziet als potentiële daders. Het holt onze vrijheid uit om door de stad te lopen, zonder in de gaten gehouden te worden.’

 

Bedreiging van de democratie

De Maagdenhuisbezetting in 2015 is een van de vele voorbeelden die Milan noemt. ‘Op een gegeven moment werd er een videocamera (geen gezichtsherkenning) voor de ingang gehangen. Sommige van mijn collega’s wilden daarom niet meer naar binnen omdat ze bang waren voor de consequenties.’

 

Gezichtsherkenning bedreigt de vrijheden van de democratie, stelt Milan. Wanneer alles wordt vastgelegd, hoe veilig is het dan nog om in Amsterdam te protesteren voor vrouwenrechten in Iran? Ook voor ongedocumenteerde migranten om boodschappen te doen? ‘Gezichtsherkenning is opdringerig, ontmenselijkend en creëert ongelijkheid.’

 

Die ongelijkheid wordt gecreëerd door de datasets waarmee de algoritmen van gezichtsherkenning getraind worden. Die datasets bestaan voornamelijk uit witte, mannelijke gezichten. Milan: ‘Met als gevolg dat de software andere gezichten minder goed herkent. Dat levert discriminatie op, zoals in het geval van de surveillance software Procturio. Om nog niet te spreken over transgenders die niet zomaar in de hokjes van de software passen.’

‘Als je data eenmaal hebt verzamelt, ga je die vroeg of laat gebruiken’

Toch is gezichtsherkenning een lastig onderwerp om burgers voor te mobiliseren, merkt Milan. ‘Anders dan vrede of vrouwenrechten, is gezichtsherkenning een onderwerp waar mensen zich maar moeilijk iets bij voor kunnen stellen. Daarnaast doet de marketing eromheen geloven dat het de stad enkel veiliger maakt.’

 

In Brussel, waar Milan haar Nias-onderzoek startte, doen ngo’s hun best om de vertaalslag naar het brede publiek te maken. ‘Reclaim your face is hier een voorbeeld van. Zij maken het probleem inzichtelijk en spannen zich in om geautomatiseerde gezichtsherkenning te bannen uit de publieke ruimte.’

 

Geen sociale media

Zelf is Milan sinds haar onderzoek extra voorzichtig met wat ze op het internet zegt. Haar communicatie verstuurt ze bij voorkeur versleuteld, en op sociale media is er weinig over haar te vinden. ‘Van mijn baby is er geen enkel beeld te vinden op het internet. Dat moet haar eigen beslissing zijn. Bovendien weet ik dat veel pedofiele databases zijn opgebouwd van foto’s van kinderen op sociale media.’

 

Hoe groot de gevaren ook mogen zijn, in de praktijk blijken technologische ontwikkelingen vaak niet te stoppen. ‘Nee,’ verzucht Milan. ‘Maar waar we wel voor kunnen zorgen is om het zo min mogelijk te gebruiken. De Europese privacywetgeving General Data Protection Regulation (GDPR) kent al het principe van data minimization. Dat betekent dat je alleen die data verzamelt die strikt noodzakelijk is om iets te laten werken. Ik denk dat dat de leidraad moet zijn voor het gebruik van datatechnologie in de samenleving. Want als je data eenmaal hebt verzamelt, ga je die vroeg of laat gebruiken.’

 

Milan gaat tijdens de Nacht van de Filosofie op Goede Vrijdag 7 april in discussie over gezichtsherkenning met techniekfilosoof en collega Marjolein Lanzing.