Slimme camera’s moeten verdacht gedrag detecteren in de Antwerpse Joodse wijk: ‘Het kan een opstap zijn om de technologie later op een andere manier te gaan gebruiken’
Vanaf januari coördineert de politie van Antwerpen een Europees project dat de Joodse gemeenschappen beter moet beveiligen. Daarvoor worden slimme camera’s met artificiële intelligentie getest die automatisch gewelddadig gedrag herkennen. ‘Ik heb nooit wetenschappelijk bewijs of onafhankelijke evaluaties gezien die aantonen dat die technologie waarmaakt wat ze belooft’, zegt criminologe Rosamunde Van Brakel.
In Antwerpen wordt het publieke domein nauwlettend in het oog gehouden. De stad telt 583 vaste en 40 mobiele camera’s. De lokale politie heeft dan weer 183 vaste camera’s, 10 mobiele ANPR-camera’s en 3 drones. Samen zijn ze goed voor 819 camera’s die drugdealers en fietsdieven betrappen, wegpiraten onderscheppen of sluikstorters lik op stuk geven. ‘Camera’s zijn een bijzonder dankbaar instrument voor een kordate aanpak van criminaliteit en overlast’, vindt burgemeester Bart De Wever (N-VA).
Vanaf januari 2025 zal de politiezone Antwerpen ook een voortrekkersrol spelen in AEGIS, voluit ‘Advanced thrEat identification and Response in Guarding JewIsh communitieS’. Het project werd door de Europese Unie in het leven geroepen om de Joodse gemeenschappen beter te beschermen tegen antisemitisch geweld. ‘De spanningen in het Midden-Oosten sinds oktober 2023 en incidenten in steden als Amsterdam hebben het belang van blijvende alertheid nog eens onderstreept’, aldus de politiezone Antwerpen.
In het AEGIS-project zal politiezone Antwerpen samenwerken met buitenlandse partners zoals Spanje en Roemenië. Het volledige project is geraamd op 2,5 miljoen euro. Voor Politiezone Antwerpen is een budget van 1,4 miljoen euro voorzien, waarvan 90 procent gesubsidieerd wordt door de Europese Unie. Dat betekent dat de politiezone zelf 146.000 euro inbrengt.
Geen gezichtsherkenning
AEGIS zal onder andere inzetten op dreigingsdetectie, waarbij slimme camera’s met AI (artificiële intelligentie) getest worden om automatisch potentiële dreigingen en gewelddadig gedrag te herkennen.
Welke technologie daarvoor precies gebruikt zal worden en hoe de algoritmes getraind zullen worden, is nog niet bekend. ‘Pas in januari beginnen we te onderzoeken hoe slimme camera’s verdacht gedrag zouden kunnen detecteren’, zegt politiewoordvoerder Wouter Bruyns. ‘De technologie die daarvoor nodig is, zal speciaal voor dit project ontwikkeld worden. We hopen alles over twee jaar te kunnen uitrollen.’
‘Clearview AI (gezichtsherkenningssoftware, nvdr) mocht niet gebruikt worden, en toch gebeurde dat, herhaaldelijk zelfs, en wellicht vandaag nog steeds.’
privacyjurist Matthias Dobbelaere-Welvaert
Voor privacyjurist Matthias Dobbelaere-Welvaert, die ook directeur is van the Ministry of Privacy, is het in elk geval duidelijk dat de algoritmes die gebruikt zullen worden nauw verwant zullen zijn met de gezichtsherkenningstechnologie. ‘De meeste software die gebruikmaakt van algoritmes die in staat zijn om gedrag te detecteren, hebben ook een functie om aan gezichtsherkenning te doen, en daar is geen wettelijke basis voor. In de praktijk valt het echter moeilijk te achterhalen of die functie door de politiediensten gebruikt wordt of niet. Clearview AI (gezichtsherkenningssoftware, nvdr) mocht bijvoorbeeld niet gebruikt worden, en toch gebeurde dat, herhaaldelijk zelfs, en wellicht vandaag nog steeds.’
Hoewel Dobbelaere-Welvaert de software voor gedragsherkenning ziet als een potentieel opstapje voor gezichtsherkenning, benadrukt Wouter Bruyns uitdrukkelijk dat het niet om een onderzoek naar camera’s met gezichtsherkenning gaat.
Vals positief
Geen gezichtsherkenning, wel gedragsherkenning. Het is de bedoeling dat de nieuwe technologie snel potentiële dreigingen herkent. Bruyns kan vandaag nog niet zeggen wat er onder ‘verdacht gedrag’ valt of hoe daarop gereageerd zal worden door de ordediensten. ‘Die zaken gaan de komende twee jaar allemaal onderzocht worden.’
‘Ook mensen met psychiatrische aandoeningen, mensen met een handicap en mensen die lang op de wc zitten, werden als verdacht gemarkeerd.’
Criminologe Rosamunde Van Brakel (VUB)
Volgens criminologe Rosamunde Van Brakel (VUB), die gespecialiseerd is in surveillance en AI, is het belangrijk om daar goed over na te denken. ‘Gebeurt dat niet, dan kan dat behoorlijke consequenties hebben.’
Voor Europa is dergelijke technologie geen primeur. Zo werd er al mee geëxperimenteerd op luchthavens. ‘Daaruit bleek dat die technologie redelijk onbetrouwbaar is’, aldus Van Brakel. ‘Ook mensen met psychiatrische aandoeningen, mensen met een handicap en mensen die lang op de wc zitten, werden als verdacht gemarkeerd, met vals positieven als resultaat. Ik heb nooit wetenschappelijk bewijs gezien of onafhankelijke evaluaties die aantonen dat die technologie waarmaakt wat ze belooft.’
Nog een mogelijke consequentie kan zijn dat als deze technologie meer uitgebreid wordt uitgerold in de samenleving het een impact kan hebben op de manier waarop mensen zich op straat gedragen. ‘Als er veel vals positieven zijn bij mensen die sowieso al kwetsbaar zijn omdat ze bijvoorbeeld een handicap hebben, kan dat verregaande gevolgen hebben’, zegt Van Brakel. ‘Technologie mag mensen niet bang maken om zich in de publieke ruimte te begeven. Die sociale impact mag niet uit het oog verloren worden.’
Van Brakel vindt het positief dat de politie aangeeft dat ze de Joodse gemeenschap erbij zal betrekken. ‘Al is het maar de vraag in welke mate ze op de hoogte zijn van eerdere experimenten met gedragsherkenning. Bij vals positieven zal die extra surveillance ook een impact hebben op hen. Welke waarborgen hebben zij? En kan dat vermeden worden?’
Sandbox
Volgens Van Brakel past het project binnen de ‘AI regulatory sandboxes’. Een sandbox is een gecontroleerde omgeving die het ontwikkelen, testen en valideren van innovatieve AI-systemen voor een beperkte tijd mogelijk maakt. ‘De valkuil is dat zulke technologieën uiteindelijk vaak toch geïmplementeerd worden, zelfs als ze amper resultaten opleveren. Als er bijvoorbeeld een terroristische dreiging is en er ingegrepen moet worden, zal men daarnaar grijpen, om te laten zien aan de bevolking dat de dreiging serieus genomen wordt.’
Ook Dobbelaere-Welvaert is terughoudend. ‘Het kan een opstap zijn om de technologie later op een andere manier te gaan gebruiken. De eerste ANPR-camera’s in België werden gebruikt om terroristen op te sporen, vandaag lezen ze nummerplaten om verkeersovertreders te kunnen beboeten. Aangezien technologie steeds goedkoper wordt, is het voor politici verleidelijk om ze in te zetten voor god weet wat.’
‘Vinden we het oké dat een hele wijk onder de loep gehouden wordt als er één gewelddadige activist uit de wijk geplukt wordt?’
Privacyjurist Matthias Dobbelaere-Welvaert
Zowel Dobbelaere-Welvaert als Van Brakel onderstreept dan ook het belang van een evaluatie van het systeem. ‘Er moet altijd een afweging gemaakt worden tussen de kosten en de baten’, zegt Dobbelaere Welvaert. Zo’n systeem kost niet alleen veel geld om te ontwikkelen, de privacy en de mensenrechten van de bevolking komen er ook door in het gedrang. De vraag is of dat opweegt tegen wat men eruit haalt. Vinden we het oké dat een hele wijk onder de loep gehouden wordt als er één gewelddadige activist uit de wijk geplukt wordt? Het moet gerechtvaardigd blijven en proportioneel zijn.’
Volgens Dobbelaere-Welvaert past het project binnen het huidige AI-optimisme, het idee dat zowat alle problemen te verhelpen zijn met behulp van artificiële intelligentie. ‘Of dat zo is, zal nog moeten blijken.’
Fout opgemerkt of meer nieuws? Meld het hier