De gevaren van ChatGPT: ‘We dreigen collectief dommer te worden’

© Knack
Elisa Hulstaert
Elisa Hulstaert Redacteur

Sinds ChatGPT eind vorig jaar gelanceerd werd, is de tekstgenerator hét gespreksonderwerp in de techwereld én daarbuiten. Ingenieurs bejubelen het systeem. Journalisten en copywriters vragen zich bang af of ze binnenkort vervangen worden door een computer. Onderwijsinstellingen bannen het van hun netwerk. Binnen de week telde de chatbot al meer dan een miljoen gebruikers over de hele wereld. ‘ChatGPT is ongelooflijk krachtig, zoiets heb ik nog nooit gezien.’

‘Momenteel test ik ChatGPT door samen met de tool een fabel te schrijven’, vertelt Mieke De Ketelaere, adjunct professor artificiële intelligentie aan Vlerick Business School. ‘De grote lijnen van de fabel bepaalde ik zelf, de concrete invulling liet ik over aan ChatGPT. Het systeem genereerde vrij snel bruikbare, speelse teksten. Als ik het bijvoorbeeld vroeg om de karakteristieken van een hond toe te passen op een personage, deed de software dat in eerste instantie perfect. Ik heb er al hardop mee zitten lachen. Maar over de weken heen zag ik de stijl van de antwoorden veranderen. Die werd steeds minder speels en meer belerend. Het model wil me steeds vaker de les spellen over hoe we in de wereld moeten samenleven.’

Dat ChatGPT sinds december een hype is onder techliefhebbers, hoeft niet te verbazen. Naast fabels schrijven kan de chatbot ook teksten samenvatten en vertalen, vragen beantwoorden, maatschappelijke kwesties kaderen, titels en inhoudsopgaves suggereren, advies geven, mopjes maken, copy verzinnen voor sociale media, nieuwsbrieven of mails, essays, poëzie, liefdesbrieven, liedjesteksten en computercode schrijven. Het zou zelfs de eerste tekenen van de ziekte van Alzheimer kunnen detecteren.

Het model wil me steeds vaker de les spellen over hoe we in de wereld moeten samenleven.

Mieke De Ketelaere, Vlerick

ChatGPT is een systeem dat met behulp van artificiële intelligentie (AI) teksten genereert. Als gebruiker typt u een opdracht of vraag in, en in een handomdraai genereert de software een vlot leesbare tekst in de taal waarin u de opdracht formuleerde. Converseren met ChatGPT doet daarom bedrieglijk menselijk aan.

De tekstgenerator werd ontwikkeld door OpenAI, een onderzoeksbedrijf dat in 2015 in Californië werd opgericht door een groep rijke investeerders, onder wie ondernemer Elon Musk en huidig ceo Sam Altman. Oorspronkelijk was OpenAI een non-profitorganisatie die vooral kennis over AI wilde delen en AI wilde ontwikkelen die, naar eigen zeggen, ‘de hele mensheid ten goede komt’. Intussen heeft OpenAI de non-profitstructuur ingeruild voor een hybride model: de non-profit OpenAI Inc. bestuurt nu het commerciële bedrijf OpenAI LP. Met systemen als ChatGPT probeert het toch geld te verdienen, door licenties te verkopen aan ontwikkelaars zoals Microsoft.

‘ChatGPT is ongelooflijk krachtig, zoiets heb ik nog nooit gezien’, zegt De Ketelaere. ‘Tegelijk is het een digitaal Disneyland vol nieuwe snufjes waar we blindelings inlopen. We kijken te veel naar “de voorkant” van de technologie, naar de functionaliteiten die voor ons zo vernieuwend zijn. We moeten ook kritisch blijven en naar “de achterkant” kijken. En ons afvragen hoe zoiets impact heeft op de mens en op de planeet.’

Black box

‘ChatGPT werkt met een eenvoudig algoritme dat, op basis van de woorden die er al staan, telkens het volgende woord voorspelt’, aldus professor computerlinguïstiek Walter Daelemans (UAntwerpen). Chatbots bestaan al langer, maar deden het nooit zo goed als ChatGPT. ‘Ze vergaten waar de conversatie over ging, en produceerden irrelevante antwoorden’, zegt Daelemans. ‘Wat ChatGPT revolutionair maakt, is dat het een dialoog in stand kan houden. Omdat er een geheugen in zit, kan het terugverwijzen naar wat eerder in de conversatie heeft plaatsgevonden. Daarnaast kan het putten uit een reusachtige databank vol informatie, die ChatGPT op een taalkundig correcte en bijzonder overtuigende manier reconstrueert. Het zal nooit letterlijk bronteksten overnemen, het zal de data reconstrueren tot een nieuwe tekst.’

Die reconstructie gebeurt in een diep neuraal netwerk dat volgens neurowetenschappers min of meer werkt zoals onze eigen, menselijke hersenen. ‘Ook ons brein is een soort voorspellingsmachine’, zegt Daelemans. ‘Afhankelijk van het feit of onze voorspelling klopte of niet, past het model het beeld aan dat het van de wereld heeft. Op dezelfde manier “leert” ChatGPT bij.’ Maar hoe ChatGPT de antwoorden precies vormgeeft, weet voorlopig niemand. ‘Dat zit verborgen in de honderden miljarden connecties van dat model’, zegt Daelemans. ‘Dat is de black box van ChatGPT.’

Denk niet dat ChatGPT begrijpt wat u vraagt of schrijft. In die val mogen we niet trappen.

Luc Steels, VUB

ChatGPT is getraind met een immense hoeveelheid teksten die van het internet geplukt zijn. Volgens het Britse maandblad BBC Science Focus gaat het om 570 gigabyte aan data uit boeken, artikels, encyclopedieën, fora en andere geschreven bronnen. Er werden maar liefst 300 miljard woorden in het systeem ingevoerd. ‘Omdat het systeem met zo veel data getraind is, kan ik me voorstellen dat het op een bepaald moment de meeste combinaties van concepten gezien heeft, en dat het daardoor kan generaliseren naar andere, nieuwe ideeën’, zegt Daelemans.

Het is verleidelijk om te denken dat ChatGPT begrijpt wat u vraagt of wat het schrijft, ‘maar in die val mogen we niet lopen’, waarschuwt Luc Steels, emeritus professor computerwetenschappen van de VUB. ‘De manier waarop ChatGPT werkt, is helemaal anders dan hoe wij een tekst lezen en interpreteren. Als mens proberen we de betekenis ervan te doorgronden. Pas als we die begrepen hebben, kunnen we er vragen over beantwoorden. ChatGPT zoekt daarentegen patronen die regelmatig voorkomen in teksten en speelt die vervolgens af. Dat iets wat geen woorden of zinnen begrijpt toch zo’n goede teksten oplevert, was ook voor specialisten een grote verrassing.’

Code rood

Technologie waarmee u informatie kunt opzoeken, het klinkt bekend in de oren. Eind december berichtte de Amerikaanse krant The New York Times dat het management van Google ‘code rood’ afkondigde. ‘Voor Google is dat vergelijkbaar met het activeren van een brandalarm’, schreef het blad. ‘Al meer dan twintig jaar is de zoekmachine van Google de belangrijkste toegangspoort tot het internet. Maar nu een nieuw soort chatbottechnologie klaarstaat om de traditionele zoekmachines opnieuw uit te vinden of zelfs te vervangen, kan Google voor het eerst geconfronteerd worden met een serieuze bedreiging voor zijn belangrijkste zoekactiviteiten.’

Wie wil weten waar de informatie die ChatGPT geeft vandaan komt, tast volledig in het duister.

Luc Steels, VUB

Intussen gaf Microsoft te verstaan dat het de technologie van ChatGPT onder andere wil inbouwen in zijn zoekmachine Bing. De Amerikaanse techreus wil 10 miljard dollar investeren in OpenAI. Maar volgens Steels is ChatGPT helemaal niet klaar om een alternatief te zijn voor Google. ‘Bij klassieke zoekmachines formuleren we zélf een antwoord op onze vraag op basis van aangeleverde gegevens. Wij beoordelen welke websites er betrouwbaar uitzien. Bij ChatGPT formuleert het AI-systeem dat antwoord op basis van bronnen die voor ons onbekend blijven. Wie wil weten waar die informatie vandaan komt, tast volledig in het duister.’

© Knack

Hallucinaties

Die bronvermelding is belangrijk omdat ChatGPT de bal inhoudelijk soms misslaat. Het waarschuwt daar wel voor in een disclaimer, maar enthousiaste gebruikers durven daar weleens over te kijken. ‘Hoe meer je ermee experimenteert, hoe meer je zult zien dat het soms onzin uitkraamt’, waarschuwt Steels. Aangezien het systeem getraind is met ‘data van het internet’, is dat niet verbazingwekkend. ‘Toch stelt ChatGPT alles overtuigend voor als de waarheid. Het kent geen twijfel of nuance.’ Volgens Steels schuilt daar een groot gevaar in.

Bovendien kan het systeem ook zélf onzinnige antwoorden genereren. ‘Dat noemen ze “hallucinaties”: informatie die door het systeem bedacht wordt en nergens in de trainingsdata terug te vinden is’, aldus Daelemans. ‘Ik heb getest of het bruikbaar is voor wetenschappelijk onderzoek, maar ChatGPT sprak over onbestaande papers, al hadden ze wel geloofwaardige titels.’ Galactica, een vergelijkbaar taalmodel van Meta dat getraind werd op 48 miljoen wetenschappelijke teksten en ontwikkeld werd voor studenten en academici, werd om diezelfde reden in november na amper drie dagen offline gehaald. Dat model genereerde zelfs een overtuigend Wikipedia-artikel over de geschiedenis van… beren in de ruimte.

Hoe meer je ermee experimenteert, hoe meer je zult zien dat het soms onzin uitkraamt.

Luc Steels, VUB

‘De kans bestaat dat die onzin nu verder verspreid wordt’, zegt Steels. ‘Als die door AI-gegenereerde teksten met foute informatie in het echosysteem van het internet belanden, zullen ze ook beginnen op te duiken in de resultaten van klassieke zoekmachines. Na verloop van tijd weet niemand nog wat waar is, en wat niet.’ Een oplossing daarvoor zou kunnen zijn om een soort watermerk aan te brengen, wat al gebeurt met teksten die vertaald zijn met behulp van AI. ‘Zoiets voorkomt ook dat AI-systemen die data gaan gebruiken om van te leren’, legt Steels uit. ‘Bij ChatGPT staan ze voorlopig nog niet zover. De teksten die de tool genereert, worden door andere AI-systemen dus niet als dusdanig herkend en zouden gebruikt kunnen worden om volgende versies van het systeem te trainen.’

Gebruikers stellen meestal vragen over onderwerpen waarover ze iets willen leren. ‘Maar wie een vraag stelt over een thema waar hij niet veel van kent, kan onmogelijk beoordelen of de tekst die gegenereerd werd door ChatGPT inhoudelijk juist is’, zegt Steels. ‘Daarom is de tool alleen bruikbaar voor experts, bijvoorbeeld om het een aanzet voor een tekst te laten produceren over het onderwerp dat ze door en door kennen.’ Toch is Steels ook daarvoor niet helemaal gewonnen. ‘Als we het schrijven van teksten overlaten aan artificiële intelligentie, verliezen we als mens die vaardigheid. We dreigen collectief dommer te worden door onze intelligentie te delegeren aan machines, die eigenlijk niet intelligent zijn.’

Soms genereert het systeem “hallucinaties”: informatie die door het systeem bedacht wordt en nergens in de trainingsdata terug te vinden is.

Walter Daelemans, UAntwerpen

Als mens zijn we ook geneigd om – meer dan we zelf beseffen – sterk te vertrouwen op geautomatiseerde systemen. ‘Dat noemen we automation bias’, zegt Nathalie Smuha, die de juridische en ethische implicaties van AI onderzoekt aan de KU Leuven. ‘Omdat AI-systemen getraind zijn op grote hoeveelheden data, gaan we er als mens van uit dat dat die systemen slimmer zijn dan wij. Het zorgt er ook voor dat we minder kritisch omgaan met de informatie die zulke systemen ons aanreiken. Bij ChatGPT is dat een probleem, niet alleen omdat het desinformatie overtuigend presenteert als waarheid, maar ook vanwege de bias (vooroordelen) die het kan vertonen.’

Wit, mannelijk en progressief

‘Bias is wellicht het bekendste risico dat bij AI komt kijken, en dus ook bij ChatGPT’, weet professor techniekfilosofie Lode Lauwaert (KU Leuven). Hij is houder van de leerstoel Ethics & AI en auteur van het boek Wij, robots. ‘De data waarmee het systeem getraind is, zijn niet representatief. Die bestaan grotendeels uit teksten die afkomstig zijn uit de witte gemeenschap.’ ChatGPT werd onder andere getraind met data van Wikipedia, waar slechts 20 procent van de bewerkers een vrouw is. Ook de Amerikaanse sociale nieuwswebsite Reddit werd gebruikt om het model te voeden, die vooral populair is onder Amerikaanse, hoogopgeleide mannen tussen de 25 en 35 jaar. ‘Dat zorgt ervoor dat ChatGPT teksten genereert die vooral interessant zijn voor diezelfde gemeenschap. Daarnaast reproduceert het systeem ook bepaalde stereotypen die, soms impliciet, aanwezig zijn in online conversaties. Die kunnen racistisch of seksistisch van aard zijn, of gelinkt aan bijvoorbeeld religie. Zo zal het woord “ceo” sneller gekoppeld worden aan de hij-vorm, en het woord “moslim” aan “terreur”. Dat is natuurlijk niet wenselijk. De ontwikkelaars zouden er ook voor kunnen kiezen om een grotere diversiteit in hun datasets te integreren, zodat niet alleen het westerse wereldbeeld gereproduceerd en verspreid wordt.’

De data waarmee het systeem getraind is, zijn niet representatief. Die bestaan grotendeels uit teksten die afkomstig zijn uit de witte gemeenschap.

Lode Lauwaert, KU Leuven

Op expliciete vormen van discriminatie zult u ChatGPT echter niet snel betrappen. ‘Zulke zaken worden wel degelijk gefilterd,’ weet Lauwaert, ‘al is het gissen naar welke regels of filters er precies worden toegepast. Een handvol mensen in Californië – wellicht witte, mannelijke, progressieve ingenieurs tussen de 20 en de 40 jaar oud – kiest met welke datasets ChatGPT getraind wordt en welke filters erop worden toegepast. Zij hebben met andere woorden de macht om te bepalen welke informatie wij te zien krijgen. Dat beslissingsproces zou transparanter en democratischer kunnen.’

Over controversiële thema’s zoals abortus of de doodstraf blijft ChatGPT neutraal. Marteling vindt het verwerpelijk, en mannen kunnen volgens het systeem niet zwanger worden – transgender mannen met een baarmoeder en non-binaire personen blijven dus buiten beeld.

Uitbuiting

De schadelijke inhoud wegfilteren gebeurt niet automatisch, en het gebeurt niet in het hippe Californië. Het Amerikaanse weekblad Time onthulde dat OpenAI Keniaanse arbeiders inschakelde om de antwoorden die ChatGPT genereert te beoordelen. Op die manier leert het systeem welke antwoorden door de beugel kunnen, en vooral welke niet. Vanaf november 2021 werden de Keniaanse arbeiders via Sama, een soort onderaannemer, ingezet om tekstfragmenten te labelen. Sommige daarvan beschrijven tot in detail seksueel misbruik van kinderen, bestialiteit, moord, zelfmoord, foltering, zelfverminking en incest. De arbeiders kregen tussen de 1,32 en de 2 dollar per uur om minstens 150 tekstfragmenten per dag te verwerken. ‘Het was een marteling’, liet een van de arbeiders optekenen. Omdat het werk traumatiserend was, zette Sama het werk voor OpenAI in februari 2022 stop.

Momenteel is ChatGPT nog gratis, maar het kost het bedrijf handenvol geld. Volgens mij is het een grote marketingstunt.

Mieke De Ketelaere, Vlerick

Niet alleen mensen, ook de planeet wordt onder druk gezet voor de ontwikkeling van AI. ‘Om zo’n systeem intelligent te maken, is heel wat rekenkracht nodig’, zegt Mieke De Ketelaere. ‘Dat trainen vraagt enorm veel energie, en zorgt voor een aanzienlijke CO2-uitstoot.’ Experts schatten dat de training van GPT-3 (de minder complexe voorloper van ChatGPT) 1287 megawattuur kostte (genoeg om 367,5 Belgische gezinnen een jaar lang van elektriciteit te voorzien) en 552 ton CO2 uitstootte (gelijk aan de uitstoot van een gemiddelde auto gedurende 120 jaar). ‘Maar ook elke keer dat iemand met het systeem werkt, kost dat opnieuw energie. De vraag van de gebruiker wordt via het internet naar servers in datacentra gestuurd, waar het model op zoek gaat naar het antwoord. Dat antwoord wordt dan opnieuw vertaald naar de computer van de gebruiker.’ Hoeveel energie dat precies vraagt, hangt af van verschillende parameters, zoals de timing, de locatie en het type computer van de gebruiker. OpenAI heeft zijn energiegebruik nog niet vrijgegeven, maar computerwetenschapper Tom Goldstein (Universiteit van Maryland) berekende dat het OpenAI 100.000 dollar per dag kost om ChatGPT te laten draaien.

‘Momenteel is ChatGPT nog gratis beschikbaar, maar OpenAI betaalt daar dus handenvol geld voor’, zegt De Ketelaere. ‘Volgens mij is het een grote marketingstunt.’ Het bedrijf lanceerde intussen ook ChatGPT Professional, een betalende versie van het model die voor 42 dollar per maand meer mogelijkheden biedt dan de gratis versie. Het toont aan dat OpenAI nadenkt over mogelijkheden om de kosten te dekken.

Door iedereen kosteloos met de tekstgenerator te laten experimenteren, krijgt ChatGPT niet alleen ongelooflijk veel aandacht maar ook tonnen feedback. ‘Wellicht zijn we nu massaal gratis aan het werken voor OpenAI’, zegt Walter Daelemans. ‘Wees maar zeker dat zij al die data gebruiken om het systeem te verbeteren.’

Mensen die werken met vertrouwelijke informatie, zoals advocaten of artsen, gebruiken het systeem maar beter niet voor hun werk.

Nathalie Smuha, KU Leuven

OpenAI kan die data ook delen met niet nader genoemde derde partijen. ‘Daarom kunnen mensen maar beter geen vertrouwelijke informatie invoeren’, zegt Smuha. ‘Als je ChatGPT een gedicht wil laten schrijven over iemand die je kent, is het natuurlijk leuk dat het resultaat gepersonaliseerd is, maar je hebt geen idee waar die informatie uiteindelijk terechtkomt. Mensen die werken met vertrouwelijke informatie, zoals advocaten of artsen, gebruiken het ook het best niet voor hun werk.’

Bedrog

Studenten hebben hun weg naar ChatGPT alvast vlot gevonden. Een professor van de Universiteit van Lyon ontdekte dat zeven van zijn veertien studenten de chatbot gebruikten om een paper voor zijn vak te schrijven. In Australië moeten studenten hun examens weer met pen en papier maken en publieke scholen in New York bannen ChatGPT op het netwerk van de scholen. Andere experts pleiten er net voor om de tool te omarmen. Volgens hen kunnen leerlingen ook kritisch met de output van ChatGPT leren omgaan.

Maar het bedrog dat gepleegd wordt met de tool gaat verder dan verhandelingen schrijven. Onderzoekers van Check Point Research legden bloot hoe onervaren hackers ChatGPT kunnen gebruiken om sneller malware te ontwikkelen en overtuigende phishingmails op te stellen. Dat ChatGPT een gevaar is voor cyberveiligheid willen ze niet gezegd hebben. ‘Als AI aanvallers kan helpen bij het schrijven van code, kan het op termijn ook een bijdrage leveren voor bescherming tegen cyberaanvallen’, klinkt het. Onderzoekers van WithSecure toonden op hun beurt aan hoe ChatGPT ook gebruikt kan worden voor sociale validatie, oplichting, opzettelijk verdeeldheid zaaien, het opstellen van kwaadaardige teksten, lastercampagnes en nepnieuws, en het toe-eigenen van een schrijfstijl.

Als iemand de tool gebruikt om een boek te schrijven, wie is dan de auteur?

Nathalie Smuha, KU Leuven

Dat laatste baart juristen zorgen, omdat dat ook het geval kan zijn zonder dat er kwaad opzet mee gemoeid is. ‘In hoeverre rustte er copyright op de data waarmee het model getraind is?’ vraagt Nathalie Smuha zich af. ‘En als ChatGPT stukken uit boeken reciteert, schendt dat dan het auteursrecht? Als iemand de tool gebruikt om een boek te schrijven, wie is dan de auteur? Momenteel zijn er nog geen eenduidige antwoorden op die vragen. Het wetgevende kader hinkt achterop, maar ze zijn natuurlijk ook wel op snelheid gepakt.’

Muzikant Nick Cave ontving tientallen songteksten die zijn fans door ChatGPT lieten schrijven in de stijl van hun idool. Hij was niet onder de indruk. ‘This song is bullshit’, reageerde Cave. ‘Nummers ontstaan uit lijden. (…) Voor zover ik weet, kunnen algoritmes niet voelen. Data lijden niet.’

Vierde industriële revolutie

Sinds de eerste industriële revolutie zijn mensen bang dat machines hun werk zullen overnemen. In de negentiende eeuw waren handarbeiders onzeker over hun toekomst. Vandaag, drie industriële revoluties later, is het aan de kenniswerkers om zich achter de oren te krabben. ‘De jobs van kenniswerkers zullen niet verdwijnen, maar wel veranderen’, verwacht De Ketelaere. ‘ChatGPT kan wel een tekst maken op basis van feiten, maar kan niet causaal denken. Kritische teksten die onderzoeken hoe bepaalde zaken samenhangen, zullen nog altijd door mensen geschreven worden.’

‘De GPT-modellen zullen als hulpmiddel gebruikt worden door experts’, voorspelt Daelemans. ‘Het zou kunnen dat die modellen snel even slim of misschien zelfs slimmer worden dan zij, maar zolang de mens de finale beslissingen neemt, is dat geen probleem. Er zal veel meer werk verzet kunnen worden door minder mensen.’

Ergens in de loop van dit jaar wordt GPT-4 verwacht. Het hoeft bijna niet gezegd, maar de verwachtingen bij de fans zijn torenhoog. ‘Dat is belachelijk’, zei OpenAI-ceo Sam Altman daarover in een interview met StrictlyVC. ‘Die mensen smeken om teleurgesteld te worden.’ De toekomst zal het uitwijzen.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content