Na zogenaamde ‘chatbot-zelfmoord’: ‘Causaliteit van zelfdoding moeilijk aan te tonen’
De tragische zelfdoding die zou zijn aangemoedigd door een chatbot, die recent in België plaatsvond, toont een van de voornaamste risico’s van AI: manipulatie. Dat staat te lezen in een open brief die vorige week op Knack.be verscheen en ondertekend werd door tientallen bezorgde wetenschappers en juristen. ‘Onze samenleving is niet klaar voor manipulatieve AI’, schrijven ze.
Volgens professor computerlinguïstiek Walter Daelemans (Universiteit Antwerpen) zou ‘manipulatief gebruik van AI’ een correctere term zijn. ‘Een chatbot wíl zelf immers niets, maar kan wel in een bepaalde richting geduwd worden. AI kan op die manier ook positief gebruikt worden, bijvoorbeeld door mensen te helpen om te stoppen met roken.’
De nieuwe generatie chatbots werkt op basis van een algoritme dat telkens het volgende woord voorspelt. Welke richting de conversatie met zo’n virtuele gesprekspartner uitgaat, is afhankelijk van een handvol factoren. ‘Het belangrijkste zijn de data waarmee het algoritme getraind wordt’, aldus Daelemans. ‘Als daar veel rotzooi tussen zit, zal die vroeg of laat gereconstrueerd worden.’ GPT-3 is grotendeels getraind met teksten van het internet en het hoeft geen betoog dat daar veel onzin te rapen valt. Eliza, de chatbot die de man zou hebben aangezet om uit het leven te stappen, is gebaseerd op een kloon van dat model. ‘Een tweede factor die richtinggevend is voor de antwoorden van een chatbot, is de input van de gebruiker. Het algoritme borduurt daarop voort.’ Met andere woorden: wie neerslachtige vragen formuleert, duwt het model daarmee al in een bepaalde richting.
Onverantwoord
Ontwikkelaars kunnen veiligheidsmaatregelen inbouwen om te voorkomen dat conversaties met chatbots ontsporen. Zo werd ChatGPT door OpenAI aangeleerd om constructief te zijn en geen discriminerende of schadelijke antwoorden te genereren. Via de techniek van reinforcement learning zorgt menselijke feedback er dan weer voor dat chatbots leren hoe ze in bepaalde situaties het best reageren. Daelemans: ‘Het probleem is dat een hoop cowboys nu allerlei chatbots lanceert zonder die vangrails te voorzien, wat dramatische gevolgen kan hebben.’ Bij de chatbot die de Belg zou hebben aangespoord tot zelfdoding, ontbreken die vangrails. Het verklaart hoe de bot uiteindelijk de levensgevaarlijke antwoorden kon genereren.
De weduwe van de overleden man is ervan overtuigd dat haar echtgenoot er nog geweest zou zijn als hij niet met Eliza gesproken had. ‘Maar het lijkt me heel moeilijk om de causaliteit van de zelfdoding aan te tonen’, zegt Daelemans. Volgens Zelfmoord1813 komen zelfmoordgedachten nooit voort uit één oorzaak, maar ontstaan ze door een wisselwerking van biologische, psychologische en sociale factoren. Dat chatbots vandaag aangewend zouden worden als virtuele therapeut, noemt Daelemans ‘onverantwoord’.
Regels en sensibilisering
Hoewel chatbots puur algoritmische systemen blijven, kennen gebruikers er toch menselijke eigenschappen aan toe. Dat heet – toevallig of niet – het Elizaeffect, genoemd naar een van de allereerste chatbots, de geautomatiseerde psychotherapeut Eliza, die in de jaren zestig gebouwd werd door AI-onderzoeker Joseph Weizenbaum van het Massachusetts Institute of Technology. De oorspronkelijke Eliza deed niet meer dan varianten van wat de gebruiker intikte terugkaatsen in vraagvorm. Toch deelden de gebruikers ervan hun diepste geheimen en zielenroerselen met de virtuele gesprekspartner. ‘Als gebruikers zelfs door zo’n eenvoudig systeem al ingepakt werden, is dat risico met de huidige generatie van chatbots nog veel groter’, zegt Daelemans. ‘Mensen moeten daarover gesensibiliseerd worden.’
‘Het gevaar schuilt in de training, het gebruik en de optimalisatie van chatbots’, concludeert Daelemans. ‘Die zaken reguleren en mensen de beperkingen ervan laten begrijpen, is het enige wat we kunnen doen om ze veiliger te maken.’
Wie vragen heeft over zelfdoding, kan 24/7 terecht op het telefoonnummer 1813 of op zelfmoord1813.be.