AI en de Gazastrook: van propaganda tot twijfel zaaien met (deep)fake beelden
Beeldgeneratoren op basis van artificiële intelligentie kunnen valse maar geloofwaardige en zelfs fotorealistische beelden creëren. Ook in de oorlog tussen Israël en Hamas. Maar het échte gevaar ligt nog elders.
Je ziet het de laatste jaren keer op keer bij gewapende conflicten: een massale, onmiddellijke verspreiding van beeldmateriaal via het internet. Dat gebeurt niet alleen door de strijdende partijen zelf – denk aan dronebeelden of bodycams van soldaten – maar ook door burgers, burgerjournalisten of toevallige omstanders die gebeurtenissen fotograferen, filmen of zelfs livestreamen.
De voorbije weken was er, in de marge van de opflakkering van de oorlog tussen Hamas en Israël, veel te doen over de enorme hoeveelheid valse beelden die op sociale media circuleren. Allerlei foto’s en video’s gingen op het internet rond als ‘nieuws’, maar hadden niets met het huidige conflict te maken. Het waren bijvoorbeeld beelden van bombardementen uit vroegere jaren, video’s uit de Syrische burgeroorlog of uit Oekraïne, of zelfs stukken uit videogames zoals Arma 3. Vooral op X, het voormalige Twitter, is de informatie over Gaza een troebele mix van echte en valse beelden.
Deepfake van topmodel
Sinds de opkomst van ‘generatieve’ artificiële intelligentie, met beeldgeneratietools zoals Midjourney en DALL-E, kijken experts in desinformatie op het internet met een bang hart naar de impact die AI-beelden zullen hebben op de online informatieoorlog die met de meeste gewapende conflicten gepaard gaat. In het huidige conflict rond Gaza blijkt dat verrassend genoeg ‘mee te vallen’ – niet AI-beelden, maar de klassieke uit de context gehaalde of verkeerd beschreven video’s en foto’s maken nog altijd het gros van de desinformatie uit.
Toch circuleerden er de voorbije weken enkele virale propagandaprentjes die met AI gemaakt bleken: van slachtoffers van bombardementen in Gaza, van pro-Israëlische betogingen en van heroïsche Israëlische soldaten. Vorige week dook er ook een deepfakefilmpje op waarin topmodel Bella Hadid, die een Palestijnse vader heeft en zich op sociale media vaak uitspreekt voor de Palestijnse zaak, plots haar steun aan Israël verklaarde. Ook vredesactivisten gebruikten al AI om utopische afbeeldingen te maken van Palestijnse en Israëlische kinderen die de armen om elkaar heen slaan.
Wie zo’n AI-beeld als eerste deelt op sociale media maakt meestal wel duidelijk dat het om een nepbeeld ‘ter illustratie’ gaat. Die context valt weg wanneer anderen het interpreteren – en beginnen te delen – als een échte foto. Dat gebeurt steeds vaker sinds ook databanken van stockfoto’s, zoals Adobe Stock, AI-beelden aan hun aanbod toevoegden. De beelden moeten dan wel verplicht gelabeld worden, maar een vergissing is snel gebeurd.
(Lees verder onder de preview)
Luxehotels
Toch schuilt het werkelijke gevaar van AI-beelden misschien wel elders. Wat de voorbije weken ook al enkele keren voorkwam, is de omgekeerde wereld: échte foto’s die terzijde werden geschoven met het argument dat het zou gaan om AI-beelden.
Na verwarrende berichtgeving over door Hamas gedode baby’s in de Israëlische kibboets Kfar Aza deelde het X-profiel van de Israëlische premier Benjamin Netanyahu midden oktober enkele choquerende foto’s van vermoorde kinderen. Die foto’s waren echt, maar al snel circuleerde het verhaal dat ze waren ‘gemaakt met AI’. Verschillende mensen hadden de beelden geüpload op de gratis AI-detectorsite AI or Not, die beweert te kunnen herkennen of een beeld gemaakt is met de hulp van artificiële intelligentie. Het oordeel van die tool luidde, verkeerdelijk, dat een van de gruwelijke foto’s die Netanyahu deelde met AI was vervaardigd.
AI-detectoren zoals AI of Not zijn, alvast voorlopig, nog helemaal niet betrouwbaar. Geregeld herkennen ze daadwerkelijke AI-beelden niet of labelt de tool per abuis échte foto’s en tekeningen als beelden die zijn gemaakt met artificiële intelligentie. Het oordeel van AI or Not zorgde er zelfs voor dat aan de foto op X een ‘Community Note’ werd vastgekleefd (een soort factcheck waarover gebruikers van de site kunnen stemmen) die beweerde dat het een fake beeld was. In werkelijkheid was de foto dus helemaal niet gemanipuleerd.
Iets vergelijkbaars gebeurde toen de Israëlische influencer Hananya Naftali een reeks foto’s deelde van het rustige leven dat enkele Hamas-topmannen leiden in het buitenland: je zag ze dineren op restaurant, fitnessen in luxehotels en reizen in een privévliegtuig. De foto’s waren echt – al dateerden ze wel uit 2014. Vanwege de lage kwaliteit waren ze bewerkt met een zogenaamde upscaler, een soort beeldbewerkingssoftware, in een poging om ze scherper te maken. De bewerking leidde er ook hier toe dat een AI-detector de foto’s onterecht als artificieel labelde.
Twijfel
In de regel zijn de tools die beweren AI te kunnen detecteren nog niet betrouwbaar. Een vals positieve beoordeling kan zelfs schadelijker zijn dan een nepbeeld. Het is misschien wel de grootste vrees van desinformatieonderzoekers: dat het loutere bestaan van artificiële-intelligentietoepassingen het makkelijker zal maken om beschamende of compromitterende beelden, die 100 procent echt zijn, weg te zetten als deepfakes. Een deel van het publiek zal in zulke situaties altijd blijven twijfelen. Precies die twijfel, waarbij men het uiteindelijk opgeeft om te proberen achterhalen of iets al dan niet echt is, dreigt op lange termijn de kwalijkste bijwerking van de AI-revolutie te worden.
Factcheck: Israëlisch-Palestijns conflict
Fout opgemerkt of meer nieuws? Meld het hier