Clearview: een risicovolle facial recognition-software

Gezichtsherkenning is al langere tijd onderwerp van debat, onder meer vanwege de risico’s op privacyschending en racisme. Bovendien kunnen gezichten worden ingezet voor gevaarlijke doeleinden, zoals deep fakes. Sinds enkele jaren is er een nieuwe facial recognition-partij op de markt: Clearview AI.

Wat is Clearview?

Clearview is een omstreden gezichtsherkenning-software, die zonder expliciete toestemming een database van miljarden gezichten heeft opgesteld op basis van sociale media-accounts. Onder andere van Facebook, Twitter, YouTube en LinkedIn zijn foto’s van personen verzameld. Vervolgens zijn deze afbeeldingen binnen de database gekoppeld aan namen en sociale media-accounts. Op die manier kan de software door middel van een foto een persoon identificeren.

De sociale media-platformen tekenden bezwaar aan tegen het verzamelen van gezichten door Clearview en dreigden met rechtszaken. Dit resulteerde in een interessant juridisch debat, waarbij Clearview stelde dat het bedrijf slechts publieke informatie verwerkt en dat dit volgens de Amerikaanse grondwet toegestaan is. Toch werd het bedrijf in enkele Amerikaanse staten aangeklaagd, omdat privacywetten daar het gebruik van biometrische informatie (zoals gezichtsherkenning) zonder toestemming verbieden. In de Europese Unie overtreedt de technologie de privacywetten en ook in Canada is Clearview inmiddels illegaal.

Omstreden gebruik van Clearview

In maart 2020 kwam Clearview in opspraak, omdat The New York Times onthulde dat rijke investeerders de software inzetten voor privédoeleinden. Het bedrijf claimt echter dat de software bedoeld is voor overheidsinstanties, om te ondersteunen bij het opsporen van criminelen. In mei 2020 beloofde Clearview dan ook alleen nog beschikbaar te zijn voor overheden en niet langer voor private bedrijven, zoals winkels en banken.

Maar ook het gebruik door overheden verloopt niet zoals dat zou moeten, bleek in april 2021. Buzzfeed News onthulde toen dat medewerkers van overheidsinstanties in de Verenigde Staten gebruik konden maken van de software zonder dat er sprake was van toezicht door hun afdelingen. Meer dan 7000 medewerkers door het hele land zochten gezichten in de database, waaronder Black Lives Matter-demonstranten, Capitool-bestormers, criminelen en eigen familieleden. In een groot deel van de gevallen waren de leidinggevenden van de desbetreffende medewerkers niet op de hoogte van het gebruik van de software.

Risico: privacyschending

Het risico op privacyschending is bij software als Clearview overduidelijk. Een politieagent kan door het maken van een foto met een paar klikken achterhalen wie iemand is, maar bijvoorbeeld ook wat de interesses, activiteiten en gezinssituatie van een persoon zijn aan de hand van een social media-account. De agent ziet direct de profielfoto van een individu verschijnen na het uitvoeren van een zoekopdracht.

Het gevolg daarvan is dat een politieagent in zo’n situatie veel meer over een mogelijke verdachte weet, dan in een situatie zonder gebruik van Clearview. Dit kan nuttig zijn in de opsporing, maar het is ook bezwaarlijk. Een agent wordt mogelijk beïnvloed door hetgeen hij of zij gezien heeft in de database en zal daarom anders reageren. De verdachte wordt dan anders benaderd dan het geval zou zijn als de agent geen voorkennis had. Het kan er bijvoorbeeld toe leiden dat een arrestatie disproportioneel gewelddadig wordt uitgevoerd, omdat de agent op basis van voorkennis een verkeerde inschatting maakt van de verdachte. Voorkennis zorgt dus voor een verstoring in het contact tussen politie en burgers.

Daarnaast zijn er geen duidelijke regels vastgesteld voor het uitvoeren van een zoekopdracht met Clearview. Een politieagent kan daardoor op basis van een eigen inschatting zomaar iemand op straat controleren en zoeken in de database. Dit blijft niet beperkt tot verdachten. Daarmee wordt de privacy van alle gecontroleerde burgers geschonden. In de praktijk betekent dit dat een individu nooit meer volledig anoniem over straat zou kunnen.

Een gezicht is niet iets wat je zomaar kunt veranderen, terwijl je dat bij een gehackt wachtwoord wel gemakkelijk zou kunnen doen. Als je eenmaal in de database staat, dan ben je altijd vindbaar en zal jouw profielfoto (van misschien wel jaren geleden) verschijnen, ook al heb je geen toestemming gegeven daarvoor. Bovendien draag je je gezicht altijd bij je. Anonimiteit verdwijnt dus volledig door Clearview.

Risico: invloed op demonstratierecht

Het gebrek aan anonimiteit is vooral problematisch bij protesten en demonstraties. Als een individu een demonstratie tegen politiegeweld bijwoont, kan het een onveilig gevoel geven dat de aanwezige politie zomaar de identiteit van het individu kan achterhalen. Dit geldt ook bij andere demonstraties met een kritische toon over politie en justitie, bijvoorbeeld de pro-immigratie- of Black Lives Matter-protesten. Deze demonstranten zijn mogelijk al leden van gemeenschappen die historisch gezien veel te maken hebben met over-policing en etnische profilering.

De angst voor privacyschending tijdens demonstraties kan ertoe leiden dat individuen ontmoedigd worden om deel te nemen aan protesten en demonstraties. Dat is schadelijk voor de democratie. Vanwege deze redenen klaagden twee immigrantenrechtengroepen Clearview AI aan in maart 2021.

Het gebruik van Clearview bij en/of naar aanleiding van demonstraties en protesten blijkt uit de door Clearview AI aangeleverde cijfers. De CEO van Clearview AI, Hoan Ton-That, beweert namelijk dat het gebruik door politie met 26% is toegenomen sinds de Capitool-bestorming in januari 2021.

Risico: racisme en foutieve identificatie

Tijdens Black Lives Matter-demonstraties hebben politiediensten dus veelvuldig gebruik gemaakt van Clearview. Het gegeven dat het gebruik ervan toeneemt tijdens vredige demonstraties, is op zichzelf al bijzonder. Waarom is het nodig gezichtsherkenning-software in te zetten als er geen verdachten zijn?

Uit verschillende onderzoeken is bovendien gebleken dat gezichtsherkenningstechnologie onnauwkeurig kan zijn bij het identificeren van mensen van kleur. In 2019 werd gerapporteerd dat mensen met een Afrikaanse en Aziatische achtergrond honderd keer waarschijnlijker foutief worden geïdentificeerd. Dit heeft geresulteerd in meerdere onterechte arrestaties.

Samenvattend

De omstreden software van Clearview is dus veelvuldig gebruikt voor andere doeleinden dan opsporing door politie en overheidsdiensten. Investeerders, private bedrijven en medewerkers binnen overheden hebben toegang gekregen tot de software, vaak zonder toezicht door afdelingshoofden en zonder controle door Clearview AI. Bovendien gaat de database vol gezichten in een groot aantal landen in tegen de privacywetten en hebben verschillende sociale media-platformen bezwaar aangetekend.

Het gebruik van Clearview kent verschillende risico’s, waaronder privacyschending, een negatieve invloed op het demonstratierecht en foutieve identificatie. Het is belangrijk dat Clearview in de nabije toekomst duidelijke regels opstelt en toezicht gaat houden op de gebruikers van de software. Ook is het van belang dat gebruikers, investeerders en het publiek op de hoogte zijn van de risico’s.

 

Bron : 

* riskworld.nl