Bijgedachte | Technologie

‘We mogen besluitvorming nooit blind overlaten aan artificiële intelligentie’

© Getty Images/iStockphoto
Elisa Hulstaert
Elisa Hulstaert Redacteur

Artificiële intelligentie kan op basis van enorme hoeveelheden data goede voorspellingen doen. Dat is vaak bijzonder nuttig, maar die voorspellingen blindelings volgen is gevaarlijk . Want artificiële intelligentie zit er soms ook naast. Toch delegeren we steeds meer besluitvorming aan machines en steeds vaker gaat het om beslissingen die een grote impact kunnen hebben op mensen.

Er wordt volop geëxperimenteerd met gevaarlijke vormen van artificiële intelligentie, en vooral op plekken die buiten het gezichtsveld van de doorsnee burger vallen.

Eerder dit jaar brachten verschillende media aan het licht dat Israël op grote schaal artificiële intelligentie inzet om potentiële doelwitten in Gaza te identificeren. Zo voorspelt het systeem Lavender wie er deel uitmaakt van Hamas, zoekt The Gospel uit waar die mensen wonen en berekent Where’s Daddy? wanneer ze thuiskomen, zodat ze daar kunnen worden aangevallen. Het zijn behoorlijk cynische namen voor systemen die sneller en meer mensen doden dan tot nu toe ooit mogelijk was.

40.000 doden

Volgens Aviv Kochavi, die tot januari aan het hoofd van de Israel Defense Forces (IDF) stond, genereert The Gospel zo’n 100 doelwitten per dag, waarvan de helft wordt aangevallen. Nog volgens het Israëlische leger is The Gospel een systeem dat ‘nauwkeurige aanvallen’ uitvoert en ‘grote schade’ toebrengt aan de infrastructuur van Hamas, terwijl burgers ‘minimale schade’ oplopen.

Is dat wat er gebeurt in tijden van algoritmische oorlogsvoering? Sinds 7 oktober zijn er in Gaza meer dan 40.000 mensen gedood, onder wie zeker 14.000 kinderen. Meer dan 92.400 mensen raakten gewond en zowat 90 procent van de bevolking is er op de vlucht.

Artificiële intelligentie zorgt in Gaza niet voor minder, maar net voor meer burgerdoden en -slachtoffers. Aan de basis daarvan liggen menselijke beslissingen, want algoritmische besluitvorming vereist een betekenisvolle menselijke controle, en die ontbreekt.

De manier waarop die betekenisvolle menselijke controle wordt vormgegeven, wordt immers niet door machines, maar door mensen bepaald. In het Israëlische leger krijgt een soldaat 20 seconden om de voorspellingen van The Gospel te legitimeren. Zoiets heeft geen enkele betekenis.

Leugendetector

In Xingjiang, in het noordwesten van China, waar 12 miljoen Oeigoeren en andere voornamelijk islamitische minderheden wonen, wordt al jaren op grote schaal artificiële intelligentie gebruikt om de bevolking te controleren. Overal hangen camera’s met gezichtsherkenningssoftware en via een verplichte app op de mobiele telefoons worden data, zoals contactenlijsten en berichten, automatisch verzameld en geanalyseerd.

Wie denkt dat Gaza of Xingjiang ver-van-mijn-bedshows zijn, vergist zich, want ook dichter bij huis worden bedenkelijke AI-systemen gebruikt.

Volgens mensenrechtenorganisatie Human Rights Watch (HRW) verzamelen de Chinese autoriteiten er biometrische gegevens (zoals DNA, vingerafdrukken, stem- en gezichtsscans) van alle inwoners tussen 12 en 65 jaar oud. Er zouden ook systemen gebruikt worden om emoties te herkennen, als een soort gesofisticeerde leugendetector.

Al die data gebruikt de politie voor (etnische) profilering en ‘misdaadpreventie’. Wijst het systeem iemand aan als potentiële terrorist, separatist of religieuze fundamentalist? Dan kan die opgepakt en opgesloten worden in een heropvoedingskamp, ook al heeft die persoon nog nooit een effectieve misdaad begaan. De machine beslist en het regime gaat daarin mee.

Stress en angst

Wie denkt dat Gaza of Xingjiang ver-van-mijn-bedshows zijn, vergist zich, want ook dichter bij huis worden bedenkelijke AI-systemen gebruikt. Zo experimenteert Europa met de technologie om zijn buitengrenzen te bewaken.

In Griekenland, Hongarije en Letland werden leugendetectors met artificiële intelligentie getest. Terwijl migranten ondervraagd werden door een avatar werden hun emoties nauwlettend in het oog gehouden. Vertoonden ze volgens de machine tekenen van stress of angst, dan zou dat erop kunnen wijzen dat ze iets achterhielden en kon hun de toegang tot de Europese Unie ontzegd worden. Hoe verdedigt iemand zich tegen een algoritme?

Ook in België begeven we ons op glad ijs. Na de zomer zullen wetenschappers van de Universiteit Gent de criminaliteitscijfers van 19 Vlaamse politiezones analyseren met behulp van artificiële intelligentie. Vanaf het najaar zouden die zones vervolgens voorspellingen op maat krijgen, die een inschatting geven van waar en wanneer misdaden zouden plaatsvinden. Met die voorspellingen zouden die misdaden voorkomen kunnen worden. Het zou nog te complex zijn om te voorspellen wie misdrijven zal plegen, en wetenschappers zien daarvoor – gelukkig – ook ethische bezwaren. Maar we bevinden ons op een hellend vlak.

Onaanvaardbaar risico

Moest de AI Act, die op 1 augustus van kracht werd, ons dan niet beschermen tegen de uitwassen van artificiële intelligentie? Zeker wel.

Even ter opfrissing: de AI Act deelt AI-toepassingen, afhankelijk van hun risico, op in vier categorieën. Systemen met een zogenaamd ‘onaanvaardbaar risico’ worden beschouwd als een gevaar voor de mens en zijn daarom verboden. Daaronder valt cognitieve gedragsmanipulatie, sociale scoring, voorspellend politiewerk op basis van profilering en biometrische identificatie om mensen in te delen in specifieke categorieën op basis van bijvoorbeeld ras, godsdienst of seksuele geaardheid.

De Europese Unie klopt zich, deels terecht, op de borst omdat ze als eerste ter wereld een verregaande AI-wetgeving heeft aangenomen. Tegelijk blijft diezelfde Unie artificiële intelligentie inzetten op manieren die minstens zorgwekkend te noemen zijn.

Systemen die op basis van grote hoeveelheden data beslissingen nemen, hebben een statistische relevantie die wij als mens niet kunnen overtreffen. Ik begrijp dus best dat de verleiding groot is om de machine eerder te vertrouwen dan onszelf. Maar daarmee schuiven we ook de verantwoordelijkheid van ons af, en dat mogen we niet laten gebeuren.

Als het op algoritmische besluitvorming aankomt, blijft een betekenisvolle menselijke controle van levensbelang. We zijn het de mensheid verplicht om ons moreel kompas te blijven gebruiken.

Deze column verscheen eerder op mo.be.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content