Gezichtsherkenning: dragen we straks allemaal een boerka? | Technisch Weekblad
Achtergrond

Gezichtsherkenning: dragen we straks allemaal een boerka?

Gezichtsherkenning is een van de ingrijpendste en snelst ontwikkelende toepassingen van artificiële intelligentie. Aan de ene kant doet een aanhoudende stroom incidenten rond discriminatie en lichtzinnig privacy-beleid, de roep om duidelijkere regels aanzwellen. Aan de andere kant is het gebruik van contactloze identificatie tijdens de corona pandemie steeds populairder geworden.

In maart 2020, verliet de Moskoviet Vladimir Bykovsky zijn appartement kortstondig om zijn vuilnis buiten te zetten in weerwil van de quarantaine waaraan hij zich moest onderwerpen omdat hij zojuist uit het buitenland was teruggekeerd. Een half uur later stond de politie voor zijn deur. De agenten meldden dat hij de regels voor een covid-quarantaine had gebroken en gaven hem een boete en dagvaarding. Bykovsky vroeg hoe zij wisten dat hij zijn huis verlaten had. Doordat er voor zijn flatgebouw een camera hing die verbonden was met een surveillance systeem voor gezichtsherkenning dat in heel Moskou actief is, antwoordden de agenten. Moskou had drie maanden daarvoor een beveiligingssysteem van het Russische bedrijf NtechLab uitgerold. De toenmalige directeur Alexey Minin claimde destijds dat het grootste werkende systeem op basis van gezichtsherkenning van de wereld was.

Bovenstaande episode is een van de vele voorbeelden in een overzichtsartikel in het journal Nature over het gebruik van gezichtsherkenning wereldwijd. Facial recognition technology (FRT), in jargon, wordt al langer gebruikt op vliegvelden en om smartphones te ontgrendelen. Maar de laatste jaren wordt het door steeds meer ordehandhavingsdiensten in de wereld toegepast, ‘van Quito tot Nairobi, van Moskou tot Detroit.’

Een inventarisatie in 2019 wees uit dat destijds in 64 landen gezichtsherkenning werd ingezet door ordehandhavers en veiligheidsdiensten, meldt Steven Feldstein, van de Carnegie Endowment for International Peace in Washington aan Nature. In 56 landen gebeurde dit in het kader van ‘smart cities’. De meeste van de landen haalden hun systemen uit China, maar ook bedrijven uit de VS, Europa, Japan en Rusland zijn actief op deze nieuwe markt. Het past in een trend van ‘smart cities’ en is een steeds goedkopere vorm van veiligheidsbeleid. Onlangs meldde de Volkskrant dat de Nederlandse politie op dit moment de enige ter wereld is die robothond Spot van Boston Dynamics inzet voor drugsoperaties. De krant haalde een leidinggevende aan die zei dat de robothond ongeveer even duur was als een medewerker.

Emotiedetectie is grootste zorg

Bart van der Sloot onderzoekt privacy en big data aan de Tilburg University. Hij was medeauteur van het advies ‘Op het eerste gezicht’ over de toepassing van gezichtsherkenning in Nederland en constateert dat door de corona-pandemie wereldwijd het gebruik van gezichtsherkenning sterk is toegenomen. ‘Door covid-19 werd het extra interessant om mensen contactloos te kunnen identificeren. Het werd ook gebruikt om op afstand af te lezen of iemand ziek was, bijvoorbeeld door een thermische scan.’ Er bestaan ook programma’s die op basis van videobeelden iemands hartslag kunnen vaststellen.

De belangrijkste ontwikkeling van het afgelopen jaar is zonder meer de verdere ontwikkeling van software voor emotieherkenning. Dat is superingrijpend en het is gevaarlijk dat daarin de hele nuance van een emotie verloren gaat.

Van der Sloot maakt zich de meeste zorgen om een specifieke toepassing van gezichtsherkenning: ‘De belangrijkste ontwikkeling van het afgelopen jaar is zonder meer de verdere ontwikkeling van software voor emotieherkenning. Door allerhande kleine gezichtstrekjes te analyseren in combinatie met je pupillen kunnen bedrijven zien hoe mensen zich voelen. Dat grijpt zo diep in op de ziel van wie je bent. Het is bovendien problematisch dat in analyses de hele nuance van een emotie verdwijnt.’ Wordt dit soort software in Nederland in de praktijk gebruikt? ‘Dat weten we niet. Het zou mij verbazen als dit niet al in Nederland gebruikt wordt, of anders binnenkort ingezet zal worden. Maar bedrijven zullen zoiets niet snel aan de grote klok hangen.’ Hoe zouden we de inzet van software voor emotieherkenning kunnen reguleren? Van der Sloot: ‘Je zou het gewoon kunnen verbieden, hoewel ik bang ben dat het lastig te handhaven kan zijn.’ Hij voorziet dat burgers dit soort tools ook zullen gaan inzetten tegen overheidsfunctionarissen. Bijvoorbeeld bij demonstraties om politieagenten te identificeren.

Een beetje hypocriet

Het is inmiddels genoegzaam bekend dat gezichtsherkenning minder goed werkt op vrouwen en etnische minderheden. Dat valt terug te voeren op het feit dat witte mannen oververtegenwoordigd zijn in de trainingsdata van veel machine learning modules. Zo werden 28 Amerikaanse parlementariërs door Amazon Rekognition ten onrechte als misdadigers geïdentificeerd, bleken zelfrijdende auto’s donkere voetgangers niet te herkennen en zette de AI-tool Pulse gruizige foto’s van donkere mensen om in foto’s van witte mensen. Nu behalve dit soort bezwaren ook steeds meer schandalen aan het licht komen over gebrekkige datahygiëne van de makers van toepassingen voor gezichtsherkenning, groeit het verzet. Sennay Ghebreab (UvA), wetenschappelijk directeur van het Civic AI Lab, zei onlangs daarover in NRC Handelsblad: ‘Inmiddels komt bijna iedereen wel in een database van gezichten voor en nu is iedereen dus een potentieel slachtoffer. Het is alsof mensen zeggen: nu het mij raakt, is het een probleem, maar wanneer het een andere doelgroep raakt, dan moet dat kunnen. Dat is toch ook een beetje hypocriet.’

‘Wat de huidige golf van protest verbindt, is het idee dat deze technologieën niet onvermijdelijk zijn,’ schreef Amba Kak van het AI Now Instituut in een rapport over het reguleren van biometrische inzet van artificiële intelligentie.

AI-regulering is geen gelopen race

In Nederland concludeerde minister Sander Dekker in februari dat inzet van gezichtsherkenning door burgers en bedrijven in principe niet is toegestaan. In de concept-verordening die de Europese Commissie vorige maand presenteerde staan speciale regels voor ‘hoog-risico-toepassingen’ van AI zoals gezichtsherkenning. Zo mag ‘real time’ gezichtsherkenning, waarbij mensen live getrackt kunnen worden (dus niet het eenvoudige uploaden van bestaande afbeeldingen) door autoriteiten in publieke ruimtes alleen tijdelijk worden ingezet en alleen na tussenkomst van een rechter of toezichthouder.

Bart van der Sloot (Tilburg University) denkt dat het nog alle kanten op kan met de regulering. ‘Er is op dit gebied een enorme strijd gaande in Europa. Er zijn ook krachten die juist veel meer op AI-toepassingen willen inzetten.’ Op het gebied van emotiedetectie ziet hij de vlucht naar voren als de beste strategie. ‘Nu worden veel van dit soort toepassingen in de VS en China ontwikkeld. Die gaan daar echt niet mee ophouden als Europa nieuwe regels maakt. Dus die tools komen hier toch. Ik vind het heel belangrijk dat we voorkomen dat de VS en China hier dominant in worden. Ik zou graag zien dat dit soort toepassingen op een verantwoorde manier ontwikkeld worden door Nederlandse en Europese partners.’

PimEyes maakt gezichtsherkenning voor iedereen toegankelijk

De Poolse start up PimEyes biedt als eerste gezichtsherkenning waarmee iedereen op internet foto’s van zichzelf kan zoeken. De site stelt dat je alleen foto’s van jezelf mag uploaden, maar controleert dat niet. De deur naar misbruik staat dus wagenwijd open. Je kunt gratis twee foto’s uploaden en krijgt dan deels geblurde resultaten te zien. Een betaalde versie kost € 29,99. Bij een test vond ik mezelf terug bij een debat, waarvan ik allang vergeten was dat ik er ooit was. Een foto van mijn vrouw (ik had haar eerst gevraagd, hoor) gaf driemaal zoveel resultaten als een van mij, maar louter valspositieven. Ook erg opvallend hoeveel hits bij een vrouwenfoto van porno sites komen. Naar verluid is PimEyes ook veel gebruikt om bestormers van het Amerikaanse parlement te identificeren. PimEyes claimt 900 miljoen openbare beelden van internet geschraapt te hebben.

 

Fawkes maakt foto’s onbegrijpelijk voor AI

Vorig jaar hebben onderzoekers van de universiteit van Chicago Fawkes gepresenteerd. Deze software brengt kleine veranderingen aan in foto’s die voor het menselijk oog niet waarneembaar zijn, maar waardoor personen op de foto er ‘in de ogen van’ een machine learning model als iemand anders uitzien. Als mensen genoeg veranderde foto’s van zichzelf op het internet ‘spammen’, wordt het voor partijen die zonder toestemming beelden van websites en sociale media schrapen moeilijk om nieuwe onveranderde beelden aan de veranderde exemplaren te koppelen en moeilijker om je te herkennen, menen de makers van Fawkes. De tool werd gemaakt in de nasleep van ophef over het controversiële bedrijf Clearview.ai dat zonder toestemming 3 miljard beelden van sociale media als Facebook, LinkedIn, Twitter en Flickr had gehaald en zijn diensten aanbiedt aan politiediensten.

Ontvang de nieuwsbrief

Meld je nu aan!

Gratis proefabonnement TW

Bestel nu 2 gratis proefnummers TW