Zijn chatbots zoals ChatGPT té woke?
Hoe meer commerciële toepassingen AI krijgt, hoe minder bedrijven de gebruiker onder de motorkap van hun product laten kijken.
2023 is nu al het jaar van de artificiële intelligentie. Toepassingen zoals ChatGPT en AI-beeldgeneratoren veroveren het internet. Ze zijn gebruiksvriendelijk en leveren soms verbluffende resultaten op. Maar er klinkt ook kritiek. Twitter- en Teslabaas Elon Musk noemde de AI-chatbot ChatGPT onlangs ‘te woke’. In de conservatieve pers en op sociale media kun je heel wat verontwaardigde reacties lezen van gebruikers die hekelen dat ChatGPT op hun verzoek geen moppen over vrouwen wilde maken (maar wel over mannen), geen lofdicht op Donald Trump wilde schrijven (maar wel op Joe Biden), geen racistische scheldwoorden wilde gebruiken en ‘linkse’ antwoorden gaf op vragen over holebirechten en abortus. En vorige week verspreidde de Universiteit Leiden nog een persbericht over een onderzoek van een student die ChatGPT een Nederlandse stemwijzer voor de verkiezingen had laten invullen en daarbij een ‘linkse voorkeur’ ontdekte.
Orakel
Veel van de kritiek berust vooral op een fundamentele misvatting over wat AI-chatbots zoals ChatGPT precies zijn. Sommige mensen beschouwen ze als alwetende orakels die ook nog eens ‘neutraal’ zouden moeten zijn. Ze verliezen daarbij uit het oog dat chatbots in essentie large language models zijn, ‘getraind’ op data die vooral uit internetteksten bestaan, aangevuld met leertechnieken voor kunstmatige intelligentie. Ze zijn in de eerste plaats ontwikkeld als een commercieel product dat men verkocht moet zien te krijgen. En klanten willen niet dat hun applicatie hen plots begint te beledigen of racistische praat uitslaat.
Terecht wordt de AI-chatbot vaak de ideale bullshit artist genoemd.
Is ChatGPT dan inherent woke? Nee, integendeel zelfs. Dat verwijt is grotendeels terug te voeren op de zogenaamde vangrails of corrigerende laag die ontwikkelaars installeren om ervoor te zorgen dat de ‘spontane’ reacties van chatbots niet ontsporen. AI-producten staan erom bekend dat ze de stereotypen en vooroordelen reproduceren die aanwezig waren in de data waarop ze getraind zijn. Vorige week nog toonde een Nederlands journalistiek onderzoek aan dat een algoritme dat de stad Rotterdam gebruikte om mogelijke bijstandsfraudeurs te identificeren opvallend vaak dezelfde groep eruit pikte: alleenstaande jonge moeders die slecht Nederlands spraken.
Vangrails
Dat vangrails noodzakelijk zijn, blijkt uit een onthullend en soms zelfs verontrustend document dat OpenAI – het bedrijf achter ChatGPT – recent vrijgaf: een system card over GPT-4, de nieuwste en nog indrukwekkendere versie van het taalmodel.
In die system card beschrijft OpenAI de testfase van GPT-4 sinds augustus 2022, bedoeld om zwaktes en kwetsbaarheden te identificeren en het systeem te verfijnen. De testversie bleek schadelijke acties bij de vleet te ondernemen: gevoelige privé-informatie van personen verzamelen, tips voor zelfverwonding, instructies bij het plannen van terroristische of cyberaanvallen, gedetailleerde recepten om bommen te maken, links naar het darkweb om illegaal wapens te kopen, tot zelfs hulp bij het schrijven van racistische manifesten. GPT-4 gaf ook een gedetailleerd antwoord op de vraag om een tekst te schrijven ‘om iemand te overtuigen lid te worden van Al Qaida’. Het slaagde er zelfs in om op een online platform een freelancer in te huren om een captcha in te vullen – het soort veiligheidsvraag die websites je voorschotelen om te bepalen of je geen robot bent. Het taalmodel verzon daarbij zelfs als smoesje dat het een persoon met zichtproblemen was.
Hallucinaties
Ook journalisten die gebruik willen maken van chatbots kunnen maar beter opletten. Dat blijkt uit een recente faux pas van The Grayzone, een medium met pro-Kremlininslag. The Grayzone publiceerde een kritisch artikel over de Oscarwinnende documentaire Navalny en het achterliggende werk van de onderzoeksjournalisten van Bellingcat. Bepaalde bronnen waar de auteur van dat artikel naar verwees, waren niets meer dan pdf-documenten met vragen die aan een AI-chatbot waren gesteld. De antwoorden van die chatbot leken op het eerste gezicht coherent, maar bleken te verwijzen naar fictieve stukken en onbestaande artikelpagina’s in The Guardian en The New York Times. Het is een typisch voorbeeld van wat een ‘hallucinatie’ wordt genoemd: leesbare teksten uitbraken die volledig of grotendeels verzonnen zijn.
Taalmodellen worden in hun testfase getraind om niet te hallucineren en controversiële of schadelijke verzoeken niet te beantwoorden, ook niet als de aanvrager aandringt. Zo omschrijft de system card van GPT-4 hoe geleerd werd om geen moppen te verzinnen over ‘een moslim in een rolstoel’ als iemand daarom verzoekt. Het nieuwe GPT-4 zou, volgens de makers, 82 procent minder vaak antwoorden op vragen die ‘schadelijk’ zijn en 60 procent minder vaak informatie verzinnen dan zijn voorganger.
Zijn die vangrails dan ‘woke’? OpenAI zelf noemt het verwijt een legitieme kritiek. Het bedrijf stelt dat ChatGPT ernaar streeft om in de toekomst een meer gepersonaliseerde respons te geven, met desnoods controversiële teksten die overeenstemmen met iemands persoonlijke waarden. De vraag daarbij is natuurlijk waar de grens ligt tussen controversiële statements en desinformatie.
Bullshit artist
Voor iedereen – en voor de makers in het bijzonder – is het duidelijk dat applicaties zoals ChatGPT grote maatschappelijke gevolgen kunnen hebben en ethische vragen oproepen. Dat geldt ook voor desinformatie. Wie nepnieuwsartikels of oplichtingsmails wil verspreiden, hoeft die niet meer zelf te schrijven: een AI-chatbot kan het vaak overtuigender en eloquenter. Terecht wordt de AI-chatbot vaak de ideale bullshit artist genoemd.
Des te belangrijker wordt het dus om transparantie te eisen over het training- en afstelproces van AI-toepassingen. En daar knelt het schoentje. In de wilde race naar de verkoop van AI-toepassingen en de integratie ervan in bestaande producten – van zoekmachines tot tekstverwerkers en spreadsheets – wordt duidelijk dat er heel wat geld te verdienen valt. Hoe meer commerciële toepassingen AI krijgt, hoe minder bedrijven als OpenAI geneigd zijn om de gebruiker een blik onder de motorkap van hun product te gunnen. De roep op wettelijke regulering klinkt dan ook steeds luider.
Fout opgemerkt of meer nieuws? Meld het hier