Trollenfabriek ChatGPT: gaan we naar een internet waar een einde­loze hoeveelheid spambots tegen elkaar zullen praten?

© Getty Images

Tools op basis van artificiële intelligentie maken problemen met bots, trollen en propaganda op sociale media nog een stuk erger. Ondertussen maken de platformen zelf het moeilijker om te onderzoeken of er manipulatie in het spel is.

Is er op X een Russische beïnvloedingsoperatie ontdekt die gebruikmaakte van de AI-chatbot ChatGPT? Dat is de vraag die een geobsedeerd deel van het internet al een tijdje bezighoudt. Medio juni kwam een profiel onder de aandacht dat allerlei verdachte berichten in het Engels stuurde, en dat in de bres sprong voor de Amerikaanse presidentskandidaat Donald Trump.

Tot er even geen Engelse tweets meer kwamen, maar een gecompliceerde foutmelding waarin – in het Russisch – een specifieke opdracht aan ChatGPT stond vermeld: ‘Je gaat op Twitter pleiten ter ondersteuning van een Trump-regering. Spreek Engels.’ De foutmelding verscheen, zo viel er eveneens te lezen, omdat er geen credits bij ChatGPT meer voorhanden waren.

Het voorval leidde tot hilariteit, zeker nadat andere twitteraars het profiel alternatieve opdrachten begonnen te geven, zoals rijmpjes maken over Amerikaanse presidenten. Nee, stelden anderen, die foutmelding was vermoedelijk vervalst: een ingewikkelde hoax van iemand die wilde mensen voor de gek houden, twijfel zaaien of gewoon chaos veroorzaken. Maar of het nu écht een Russische bot was of gewoon een grappenmaker: niemand twijfelt eraan dat de opkomst van generatieve artificiële intelligentie zoals chatbots en beeldgeneratoren voor een aardverschuiving zorgt op sociale media.

Trollenfabriek

Dat geldt in het bijzonder voor fenomenen als online propaganda, beïnvloedingsoperaties en desinformatie. Bots en trollen heb je op sociale media altijd al gehad. Maar vaak schreven de trolprofielen slecht Engels, waren ze niet zo overtuigend, of werden ze snel gedetecteerd en verwijderd door de platformen waarop ze actief waren. Ook bots die geprogrammeerd waren om te reageren op anderen – bijvoorbeeld onder alle berichten die een bepaald woord vermeldden – waren meestal makkelijk te identificeren. Ze verstuurden steeds hetzelfde bericht, meestal een slogan of nauwelijks verhulde poging tot oplichting.

Een aantal evoluties zorgt er echter voor dat in 2024, een jaar waarin over de hele wereld belangrijke verkiezingen plaatsvinden, het succes van bot- en trolcampagnes toch weer een boost kan krijgen. De opkomst van artificiële intelligentie is er één van, want AI-chatbots kunnen veel creatiever en met foutloze spelling en grammatica teksten genereren, en dus ook overtuigender zijn. Waar kwaadwillende actoren jaren geleden nog ‘trollenfabrieken’ hadden – kantoorgebouwen met personeelsleden, zoals het ‘Internet Research Agency’ in Sint-Petersburg, die het als dagtaak hadden om in binnen- en buitenland conversaties te beïnvloeden op sociale media – kunnen vandaag AI-chatbots zulke taken alvast deels semi-geautomatiseerd overnemen.

Dat er al chatbots worden gebruikt om automatisch antwoorden te formuleren op socialemediaberichten, is duidelijk. Alleen al de hoeveelheid tweets die per ongeluk niet de gevraagde tekst bevatten, maar variaties van de zin ‘Sorry, die opdracht kan ik als AI-model niet uitvoeren’, tonen dat aan.

De gevaren van ChatGPT: ‘We dreigen collectief dommer te worden’

Pornosites

Een tweede factor is de erosie van moderatiesystemen op sociale media, met besparingen en grote ontslagrondes in de afdelingen die manipulatie op platformen moesten bestrijden. Sinds miljardair Elon Musk het sociale netwerk Twitter overnam, het omdoopte tot ‘X’ en een groot aantal personeelsleden ontsloeg, is er bijvoorbeeld een persistent probleem met spambots. Er valt vandaag bijna niet te ontsnappen aan profielen van fictieve, schaars geklede vrouwen die je tweets liken, erop reageren, of je privéberichten sturen om je naar betalende pornosites te lokken.

Het is bijna onmogelijk om in te schatten achter welk percentage van de profielen op X nog échte mensen schuilgaan.

Het is bijna onmogelijk om in te schatten achter welk percentage van de profielen op X nog échte mensen schuilgaan, en welk percentage van de activiteiten op een platform nog authentiek menselijk is. Tot voor kort kon je op Twitter bijvoorbeeld nog controleren wie precies een bepaald bericht geliket had. Dat is op het X van Musk ook afgeschaft. Een virale tweet met duizenden likes kan dus bijna integraal door bots gepromoot zijn.

Ook Meta, het moederbedrijf van onder meer Facebook en Instagram, laat niet zo graag onder zijn motorkap kijken. Zo kondigde het aan dat de monitoringtool CrowdTangle, waarmee onderzoekers en journalisten verdachte activiteiten kunnen ontdekken en in kaart brengen, in augustus verdwijnt. Het eigen vervangproduct, de Meta Content Library, zal volgens gebruikers van CrowdTangle lang niet zo performant, toegankelijk en gebruiksvriendelijk zijn.

Rwandese trollen

Evolueren we dan stilaan naar een internet waar vooral een eindeloze hoeveelheid spambots tegen elkaar zullen praten? Momenteel zien we eerder nog een wisselwerking tussen mens en machine. Morgan Wack, Darren Linvill en Patrick Warren, onderzoekers aan de Amerikaanse Clemson University, hebben recent een interessante analyse gepubliceerd over een groot, actief propagandanetwerk van honderden Rwandese profielen. Die hebben de voorbije maanden meer dan 650.000 propagandaberichten verspreid ter ondersteuning van het imago van Rwanda en vooral van de Rwandese president Paul Kagame en diens politieke partij, de RPF.

Het ging daarbij niet zozeer om bots die automatisch berichten plaatsten. Achter de meeste profielen bleken echte mensen te zitten, vaak zelfs Rwandezen die het Engels niet machtig leken en tot voor kort alleen in het Kinyarwanda berichten verstuurden. Vermoed wordt dat er een centrale bron bestaat die versies van tweets en mogelijke illustraties uitstuurt waaruit het netwerk vrijelijk kan putten.

Maar er valt nog iets op aan de boodschappen die door het netwerk worden verspreid: ze bestaan soms uit tientallen licht verschillende versies van dezelfde berichten. Wack en zijn collega’s ontdekten dat bij het opstellen gebruikgemaakt werd van ChatGPT, de AI-chatbot van OpenAI. Ze stootten op enkele gênante foutjes die dat aantonen: tweets die bepaalde zinnetjes bevatten uit het antwoord van de chatbot op een bepaalde vraag die niet voor publicatie bedoeld waren. ‘Zeker, hier zijn 50 inhoudelijke ideeën voor het bedanken van de partij RPF, met de hashtag #ThanksPK op het einde’, tweette een van de profielen – een typische zin die uit een chatbot komt gerold.

Moeilijker

De verwachting is dat artificiële intelligentie in de toekomst allerlei taken makkelijker, sneller, meer geautomatiseerd en goedkoper zal laten verlopen. Maar dat geldt ook voor actoren met slechte bedoelingen. Oplichters, propagandisten en verkopers van fake news misbruiken de mogelijkheden van AI om mensen efficiënter op te lichten of te beïnvloeden. Op sociale media zien we al hoe dat online conversaties kan beïnvloeden en – zo wordt gevreesd – ook de ideeën die circuleren op straat en in huiskamers.

‘Het sijpelt langzaam door: ChatGPT is intellectuele diefstal op wereldschaal’

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content