Fake porno: hoe ‘deepnudes’ Vlaamse levens verwoesten

‘Deepnudes werken het objectiveren van vrouwen alleen maar in de hand’
Elisa Hulstaert

Steeds vaker duiken vrouwen ongewenst op in pornografische beelden of video’s. Aan de hand van één foto van iemands gezicht maken daders met behulp van artificiële intelligentie deepfakepornografie of deepnudes. Het is een van de snelst groeiende vormen van misbruik.

In 2021 ontving de Nederlandse journaliste en presentatrice Welmoed Sijtsma (33) via Instagram een bericht van een onbekende. Er zou een pornografische nepvideo van haar circuleren op het internet. ‘Eerst durfde ik zelfs niet te kijken’, vertelt Sijtsma er een jaar later over in de documentaire Welmoed en de sexfakes. ‘Toen ik de video eenmaal had bekeken, durfde ik hem ook niet aan iemand anders te laten zien omdat ik me gek genoeg toch echt wel schaamde.’

In de documentaire gaat Sijtsma op zoek naar wie de nepvideo gemaakt en verspreid heeft. ‘Een video waarin mijn identiteit is gestolen, die rondzwerft op het internet en die in whatsappgroepen van bekenden is opgedoken. Maar vooral een video die mij een wereld in heeft getrokken waar ik het bestaan amper van kende. (…) Hoewel ik weet dat mijn werk zowel positieve als negatieve aandacht meebrengt, had ik nooit gedacht dat er een deepfake van mij zou worden gemaakt. En niet zomaar een deepfake: een deepfake-pornofilm. Ik speel dus in een film die ik nooit gemaakt heb. Mijn hoofd is geplakt op het lijf van een actrice in een seksvideo. Bijna tien minuten lang lijkt het alsof ik naar mezelf kijk.’

Hyperrealistisch

Deepfakes zijn beelden die volledig of deels gemaakt zijn met behulp van artificiële intelligentie (AI). Als die beelden seksueel getint zijn, worden ze deepnudes genoemd. ‘Er zijn drie manieren om deepnudes te maken’, zegt professor rechten Catherine Van de Heyning (Universiteit Antwerpen), die gespecialiseerd is in cybercriminaliteit. ‘Het gezicht van een naakte persoon kan vervangen worden door een ander gezicht. Die techniek heet face swapping en de resultaten zijn vaak hyperrealistisch. Daarnaast is er ook de undress-techniek, waarbij artificiële intelligentie voorspelt hoe iemand er naakt zou uitzien. De gebruiker uploadt dan bijvoorbeeld een foto van een vrouw in bikini, en de technologie haalt de bikini weg. Ten slotte is er AI porn: een naakte persoon die volledig door artificiële intelligentie gegenereerd is en daardoor in zekere zin nog de meest onschuldige vorm is. Het probleem is alleen dat die technologie getraind is op beelden van bestaande mensen, en dat je wel prompts kunt invoeren als: een naakte vrouw die lijkt op Taylor Swift.’

In 2023 zijn 143.868 nieuwe deepnudevideo’s geüpload naar de 40 meestbezochte deepfake-pornosites.

De technologie wordt al langer gebruikt in gerenommeerde filmstudio’s, maar heeft, onder invloed van de toegenomen populariteit van generatieve AI, haar weg gevonden naar het brede publiek. De populairste beeldgeneratoren die artificiële intelligentie gebruiken hebben ingebouwde beveiligingen om de creatie van deepnudes te voorkomen, maar die zijn niet waterdicht. Bij andere beeldgeneratoren is die beveiliging er niet. Iets waar je vroeger talent en vaardigheden voor nodig had, verkrijg je nu met een paar muisklikken.

Bekend zijn de deepfakes die bedoeld zijn als grap of propaganda. Toch wordt de technologie vandaag vooral gebruikt voor het genereren van seksueel getint materiaal. In 2016 werd voor het eerst melding gemaakt van een pornografische deepfakevideo. Volgens onderzoek van de Amerikaanse Genevieve Oh zijn er in 2023 maar liefst 143.868 nieuwe deepnudevideo’s geüpload naar de 40 meestbezochte deepfake-pornosites – meer dan alle voorgaande jaren samen. De stijging is exponentieel. Het maakt van deepnudes een van de snelst groeiende vormen van misbruik.

Allemaal vrouwen

Vijf jaar geleden bleek uit een analyse dat 96 procent van alle deepfakevideo’s seksueel getint zijn en dat op 99 procent van die pornografische beelden vrouwen worden afgebeeld. In de meeste gevallen hebben ze daar nooit hun toestemming voor gegeven. Een rapport uit 2023 stelt dat intussen zelfs 98 procent van alle deepfakes seksueel getint zijn.

98 procent van alle deepfakes is seksueel getint.

Opvallend: deepnudes van mannen komen niet alleen amper voor, ze zijn ook minder kwalitatief. ‘De algoritmes worden specifiek getraind op vrouwenlichamen’, zegt Van de Heyning. ‘Dat legt een dieper liggende genderongelijkheid, een gebrek aan respect voor vrouwen en seksueel geweld in onze maatschappij bloot. De technologie werkt het objectiveren van vrouwen alleen maar in de hand. Bovendien gaat het niet altijd om het vervullen van een fantasie. Een deepnude kan ook ingezet worden om vrouwen het zwijgen op te leggen.’

Op de grootste deepfake-pornosite zijn meer dan 1000 video’s te vinden waarin actrice Emma Watson ongevraagd de hoofdrol speelt.

Niet toevallig gebeurt het vaak met vrouwelijke politici die de regels rond deepfakes strenger willen maken, zoals het progressieve Amerikaanse congreslid Alexandria Ocasio-Cortez. Of met uitgesproken feministes, zoals actrice Emma Watson. ‘Een van de populairste tools heeft Emma Watson meer dan een jaar gebruikt in zijn promobeeld’, zegt Van de Heyning. Op de grootste deepfake-pornosite zijn meer dan 1000 video’s te vinden waarin Watson ongevraagd de hoofdrol speelt.

Deepnudes worden niet alleen verspreid op groezelige deepfake-pornosites. In januari moest X de zoekterm ‘Taylor Swift’ blokkeren nadat een seksueel getint nepbeeld van de Amerikaanse popster viraal was gegaan op het platform. Het beeld werd 45 miljoen keer bekeken, 24.000 keer gedeeld en kreeg honderdduizenden likes voor het offline gehaald werd.

Van bekende vrouwen worden honderden deepnudes gemaakt. Toch worden ook onbekende vrouwen massaal het slachtoffer van de technologie. Drie weken na de lancering van een deepnude-applicatie in augustus vorig jaar, werden er al meer dan 600.000 vrouwen virtueel mee uitgekleed. ‘Heel wat slachtoffers weten niet eens dat er deepnudes van hen bestaan’, zegt Van de Heyning.

Gimmick

Eerder dit jaar deed de Universiteit Antwerpen onderzoek naar de kennis en het gebruik van deepnude-applicaties en -technologieën bij Belgische jongeren tussen de 15 en 25 jaar. ‘Daaruit blijkt dat 41,9 procent van die groep weet wat een deepnude is’, zegt Van de Heyning, die een van de hoofdauteurs is van de studie. ‘Aangezien dat zelfrapportage is, ligt het werkelijke cijfer waarschijnlijk nog hoger.’

Bovendien bekennen 6 op de 10 jongeren die deepnude-applicaties kennen dat ze al geprobeerd hebben een deepnude te maken. ‘Dat is onrustwekkend’, zegt Van de Heyning. ‘Bij jongeren is de kans groot dat als ze het aanbod kennen, ze er ook gebruik van maken.’ Ook uit dit onderzoek blijkt dat mannen significant vaker deepnudes maken. Hun motivaties variëren van wraak tot indruk maken op vrienden.

Van de Heyning merkt wel een verschillende houding van jongeren tegenover het doorsturen van echte versus valse beelden. ‘Slechts een vierde van de jongeren zou echte naaktbeelden doorsturen. Er bestaat dus een redelijke consensus dat zoiets not done is. Bij deepnudes is die drempel lager, omdat het toch eerder als een gimmick wordt gezien. We vermoeden dat jongeren van die generatie het zo gewend zijn om filters op beelden te zetten dat ze moreel geen verschil maken tussen een varkensneus op iemands gezicht zetten of een deepnude van iemand maken. We zien deepnudes ook steeds vaker opduiken in scholen.’

We zien deepnudes steeds vaker opduiken op scholen.

Het afgelopen jaar opende Child Focus voor het eerst een aantal dossiers rond deepnudes. ‘De toename van het fenomeen baart ons zorgen’, zegt beleidsadviseur Niels Van Paemel. ‘Via onze hulplijn krijgen we almaar meer vragen van jongeren over nepbeelden, die inderdaad hun weg gevonden hebben naar de scholen. Dat is het kantelpunt waarvoor wij ons schrap zetten. Deepnudes bevinden zich op het kruispunt van gender, cyberpesten, exposing (het zonder toestemming digitaal verspreiden van private beelden om de afgebeelde persoon te schaden, vernederen of te kijk te zetten, nvdr), seksuele uitbuiting én misbruik van kinderen. Alles komt erin samen.’

Het Instituut voor de gelijkheid van vrouwen en mannen, waar meerderjarige slachtoffers een melding kunnen maken, ontving in 2021 de eerste melding van een seksueel getinte deepfake. In 2023 waren dat er drie, dit jaar staat de teller voorlopig op zes. Volgens het instituut zijn die cijfers maar het topje van de ijsberg. De meeste mensen beseffen nog niet dat deepnudes strafbaar zijn en dat ze bij het instituut terechtkunnen voor meer informatie over de stappen die ze kunnen zetten, of dat ze er hulp kunnen krijgen bij het neerleggen van een klacht bij de politie.

Valse beelden, echte gevolgen

Deepfakepornografie beperkt zich dus niet tot mensen met een specifieke achtergrond, beroep of leeftijd. Iedereen kan slachtoffer worden en niemand kan iets doen om zich ertegen te beschermen. Want aan één foto hebben daders genoeg om aan de slag te gaan.

Sijtsma laat de video zien aan vrienden en familie. Hoewel hij weet dat de video nep is, weigert haar vader resoluut hem te bekijken. ‘Ik wil niet dat dat beeld van jou in die situatie zich in mijn hersenen vastzet’, zegt hij. ‘Ik denk dat als je het aan anderen laat zien, het zich bij al die mensen in hun hoofd nestelt.’

Deepnudes kunnen ernstige mentale schade aanrichten en angststoornissen, ptss, depressie, verlies van zelfvertrouwen en zelfs zelfmoordgedachten veroorzaken.

‘Dat komt door de manier waarop onze hersenen informatie verwerken’, zegt Marthe Goudsmit Samaritter, die onderzoek doet naar deepfakes en online privacy aan het Max Planck Instituut. ‘Als we eenmaal iets gezien hebben, blijft het op ons netvlies staan, ook al beseffen we dat het beeld nep is.’

De beelden mogen dan wel vals zijn, voor de slachtoffers zijn de gevolgen wel degelijk echt. ‘Onderzoek heeft aangetoond dat zij hetzelfde soort schade ervaren als mensen van wie authentieke naaktbeelden circuleren of die stiekem gefilmd werden’, zegt Goudsmit Samaritter. Deepnudes kunnen ernstige mentale schade aanrichten en angststoornissen, posttraumatische stressstoornis, depressie, verlies van zelfvertrouwen en zelfs zelfmoordgedachten veroorzaken.

‘Een van de grootste problemen na seksueel misbruik met beeldmateriaal is sociale uitsluiting’, zegt Goudsmit Samaritter. ‘Iemand kan zich zodanig schamen dat het sociale contacten in de weg staat. Het verspreiden van naaktbeelden heeft ook een invloed op de manier waarop slachtoffers gezien en behandeld worden. Seksueel misbruik met beeldmateriaal ontneemt een groot deel van de agency van de slachtoffers: zij verliezen de mogelijkheid om doelgericht en intentioneel hun eigen leven en levensomstandigheden te beïnvloeden.’

Ook bij het Instituut voor de gelijkheid van vrouwen en mannen merken ze geen verschil tussen personen die melding maken van niet-consensuele verspreiding van authentieke of valse naaktbeelden. Slachtoffers willen dat de verspreiding van de beelden zo snel mogelijk stopt en zijn vaak bang wat de beelden zullen doen met hun reputatie.

Ook als deepnudes gebruikt worden als middel voor afpersing, maakt het voor slachtoffers weinig verschil of het beeld echt of nep is. ‘Slachtoffers willen eenvoudigweg niet dat er een naaktbeeld van hen gaat circuleren, ook niet als het een deepfake is’, zegt Van de Heyning. ‘We merken dat mensen daar affectief voor betalen.’

Verdienmodel

‘Wanneer deepnudes voor plezier en seksuele opwinding gemaakt worden, beseffen gebruikers vaak niet dat ze schadelijk en zelfs strafbaar kunnen zijn’, zegt Van de Heyning.

Die foute inschatting wordt bovendien gevoed door de brede beschikbaarheid van applicaties waar niet alleen seksueel getinte deepfakes te zien zijn, maar ook gemaakt kunnen worden. ‘Op Google liepen zelfs advertenties voor zulke tools, zodat die helemaal bovenaan in de zoekresultaten belandden, zegt Van de Heyning. ‘Hoewel de applicaties in strijd zijn met de gebruiksvoorwaarden van Google, zijn ze er met een eenvoudige zoekopdracht te vinden. Meer nog: via die applicaties geniet Google van extra advertentie-inkomsten.’

Ook op de socialemediaplatformen van Meta (Facebook en Instagram) worden betaalde advertenties getoond voor apps die gebruikers aansporen deepnudes te maken. ‘Undress any girl’ staat erbij. In het voorjaar adverteerde een deepnude-app nog op Instagram met een (gecensureerd want het platform weert wel tepels van vrouwen) vals naaktbeeld van actrice Jenna Ortega met een foto van toen ze amper 16 en dus minderjarig was. Zowel Google als Meta gaf recent aan dat het werkt aan manieren om deepnudes sneller van zijn platform te verwijderen of lager te laten verschijnen in de zoekresultaten. Over het toestaan van advertenties voor de applicaties blijft het stil.

Deepnudes zijn dus geen beelden die uitsluitend in de donkerste krochten van het internet tot stand komen en circuleren. ‘Die beelden en video’s worden evengoed massaal verspreid in groepen op Snapchat, Reddit of Telegram’, zegt Van de Heyning. ‘Mensen vragen er of iemand een naaktbeeld heeft van een specifieke vrouw, of bieden aan om tegen betaling een perfecte deepnude te maken van iemand naar keuze.’

‘Soms is het maken van deepfakeporno zo lucratief dat mensen er hun reguliere baan voor opzeggen.’

Wie zijn diensten aanbiedt om deepnudes te genereren, kan daarmee dus ook een mooie som geld verdienen. ‘Deepfakeporno en andere vormen van seksueel misbruik met beeldmateriaal zijn een verdienmodel’, zegt Marthe Goudsmit Samaritter. ‘Soms is het zo lucratief dat mensen er hun reguliere baan voor opzeggen.’ Sommige ‘creators’ werven zelfs personeel aan om hen te helpen bij het maken van deepnudes.

Op de meeste van die websites kunnen gebruikers gratis eenvoudige zoekopdrachten uitvoeren en soms ook beelden genereren. Pas wanneer gebruikers meer opties willen (zoals het exporteren van beelden in hoge resolutie, langere video’s, het aanpassen van de leeftijd of de lichaamskenmerken of specifieke verzoeken) zullen ze daarvoor credits of tokens moeten aankopen. De prijs voor het creëren van deepnudes varieert van één tot een paar honderd dollar. Daarnaast worden ook abonnementen verkocht die toegang geven tot online bibliotheken met duizenden deepfakevideo’s. Tot slot halen de bedrijven achter de applicaties ook inkomsten uit advertenties.

Uit onderzoek van de Nederlandse krant Het Financieele Dagblad (FD) blijkt dat creditcardbedrijven Visa en Mastercard en betaaldienst PayPal gebruikt worden door deepnude-applicaties. ‘Op die manier faciliteren ze ongewild en indirect deepfakepornografie’, schrijft het FD. Bovendien verdienen Visa en Mastercard aan elke financiële transactie die over hun netwerk loopt, en aan elke betaling die met hun kaart wordt gedaan.

Pionierswerk

In België is het strafbaar om zonder toestemming deepnudes te maken op basis van een bestaand persoon. ‘Wie dat doet, maakt zich schuldig aan voyeurisme’, zegt Van de Heyning. ‘Onze wetgever heeft het zodanig omschreven dat die wet niet alleen gaat over het observeren, maar ook over het doen observeren en het maken van beelden. Alleen bij volledig door AI-gegenereerde deepnudes is er geen sprake van strafbaar voyeurisme. België leverde op dat vlak pionierswerk. Verschillende andere landen zijn na de invoering van die wet druppelsgewijs gevolgd.’

Op Europees niveau had de AI Act, die op 1 augustus is ingegaan, ook iets kunnen betekenen. ‘Maar tot onze grote frustratie heeft die deepfakes beschouwd als een technologie met een beperkt risico’, zegt Van de Heyning. ‘Bij de totstandkoming van de AI Act had men politiek gestuurde deepfakes voor ogen, zoals de video van de CD&V waarin oud-premier Jean-Luc Dehaene opnieuw tot leven werd gewekt. Dat 98 procent van alle deepfakes deepnudes zijn, is niet eens in het debat aan bod gekomen.’

‘Wie in België zonder toestemming deepnudes maakt op basis van een bestaand persoon, maakt zich schuldig aan voyeurisme.’

Volgens Van de Heyning hoeven deepfakes niet verboden te worden. ‘De technologie wordt verantwoord gebruikt in de film- en mode-industrie. Maar een app waarmee iedereen zomaar van gelijk wie een naaktbeeld kan maken, is een ander verhaal. Op dat vlak heeft de AI Act de boot volledig gemist. We zouden de applicaties wel kunnen verplichten om IP-adressen van de gebruikers bij te houden, zodat die te traceren zijn als ze een strafbaar beeld maken. Een extremere maatregel zou zijn dat we de technologie alleen nog toestaan voor commerciële toepassingen en dat het een licensed product wordt, net zoals de tools die in de AI Act als technologie met een hoog risico beschouwd worden.’

Daarnaast heeft de Europese Unie in april de eerste EU-regels voor de bestrijding van geweld tegen vrouwen aangenomen. Daarin werd ook ‘cyberflashing’ of het niet-consensueel versturen van al dan niet gemanipuleerde naaktbeelden opgenomen. ‘Regelgeving op dat niveau kan een grote impact hebben op de strijd tegen deepnudes’, zegt Van de Heyning. ‘Er kan binnen de EU een gelijk kader mee worden gecreëerd waarop slachtoffers, hulporganisaties, politie en justitie zich kunnen beroepen ten aanzien van onlinespelers zoals sociale media, om beelden te verwijderen.’

Toch blijft het op dit ogenblik moeilijk om de ontwikkelaars en aanbieders van deepnude-applicaties strafbaar te stellen. Daarom pleit Van de Heyning ook voor corporate responsibility, waarbij techbedrijven en betaaldiensten zouden stoppen met het ondersteunen van deepnude-applicaties. ‘Onder druk van een campagne die we eerder voerden, hebben Android en Apple de deepnude-apps al uit hun appwinkel verwijderd. Zoiets kan een positief effect hebben.’

Cultuuromslag

In november 2023 veroordeelde de rechtbank in Amsterdam een 39-jarige man uit Amersfoort tot een voorwaardelijke taakstraf van 180 uur voor het maken van de pornografische deepfakevideo van Welmoed Sijtsma.

Er groeit een generatie kinderen op die denkt dat het maken van deepnudes normaal is, en die normalisering moet stoppen.

‘Toch zal alleen wetgeving het probleem van de deepfakepornografie niet oplossen’, waarschuwt Goudsmit Samaritter. ‘Daarvoor is er ook een maatschappelijke omslag nodig. Er groeit een generatie kinderen op die denkt dat het maken van deepnudes normaal is, en die normalisering moet stoppen. Deepfakepornografie moet absurd blijven.’

Ook Child Focus wil daarop inzetten. ‘We moeten het met jongens hebben over toxische mannelijkheid’, zegt Niels Van Paemel. ‘Dat is een maatschappelijke taak waar iedereen een stuk verantwoordelijkheid in draagt. Helaas zien we dat mediawijsheid en seksualiteit amper aan bod komen in het onderwijs.’

Tot slot vindt Goudsmit Samaritter dat er een andere houding moet komen tegenover onlinemisbruik. ‘Omdat het niet fysiek is, wordt het maatschappelijk minder ernstig genomen. Maar slachtoffers ondergaan eenzelfde soort ervaring. Een schending online kan net zo schadelijk zijn als offline.’ ●

Minderjarige slachtoffers van deepnudes kunnen terecht bij Child Focus. Meerderjarige slachtoffers kunnen een melding maken bij het Instituut voor de gelijkheid van vrouwen en mannen.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content