Moraalfilosofe Eva Weber-Guskar: ‘Ik ben voor een verbod op voelende machines’
Artificiële intelligentie lijkt almaar meer op mensen. De nieuwe versie van de chatbot ChatGTP zal zelfs over emotionele vaardigheden beschikken. De Duitse moraalfilosofe Eva Weber-Guskar ziet mogelijkheden, maar waarschuwt ook voor de gevolgen: ‘Het wordt een probleem wanneer iemand aan anderen vertelt dat een chatbot zijn vaste partner is.’
Eva Weber-Guskar (°1977) is professor ethiek en filosofie van emoties aan de Ruhr-Universiteit in het Duitse Bochum. In haar boek Gefühle der Zukunft (Gevoelens van de toekomst) onderzoekt ze hoe mensen kunnen omgaan met artificiële intelligentie (AI), die steeds meer op hen gaat lijken. Zo zal de nieuwe versie van de populaire chatbot ChatGTP zelfs over emotionele vaardigheden beschikken. Aan technologiefatalisme wil Weber-Guskar niet doen, maar ze is categorisch: ze zal nooit vrienden worden met een chatbot. ‘Voor vriendschap zijn er gevoelens aan beide kanten nodig’, zegt ze. ‘Vrienden voelen genegenheid voor elkaar, ze wensen elkaar het goede toe. Dat is op korte termijn niet mogelijk met AI-systemen.’
Artificiële intelligentie leert snel. Waarom zou een chatbot geen gevoelens kunnen ervaren?
Weber-Guskar: AI wordt momenteel sterk uitgerust met emoties. Maar daarbij gaat het om het simuleren van gevoelens, niet om het ervaren ervan.
Anderen hebben minder moeite om een AI als vriend te beschouwen. Sommigen beweren zelfs dat ze er verliefd op zijn.
Weber-Guskar: Ja, dan gaat het vooral om de sociale chatbot Replika. Die is speciaal ontwikkeld voor individuele relaties en kun je zelf vormgeven op je scherm. Qua taal en inhoud past hij zich aan de gebruiker aan. En hij bouwt over dagen, weken en maanden een persoonlijkheid op die verhalen vertelt, ook over zijn gevoelens en hoe graag hij bij de gebruiker is. Replika is altijd beschikbaar, en als je aardig tegen haar bent, zegt ze altijd de mooiste dingen. Ze beurt je op en troost je.
Een Al waarop je verliefd kunt worden, dat fascineert u?
Weber-Guskar: Ik vind het spannend. Ik probeer te begrijpen wat er precies gebeurt.
En? Wat gebeurt er als een mens verliefd wordt op een machine?
Weber-Guskar: De meeste mensen zijn zich er goed van bewust dat de Replika-avatar geen eigen gevoelens heeft, maar toch hebben ze er een emotionele, soms zelfs bijna partnerachtige relatie mee. Ze ontwikkelen fictieve gevoelens voor het computerprogramma.
Fictieve gevoelens? Wat moeten we ons daarbij voorstellen?
Weber-Guskar: We kennen dat uit de kunst. We gaan bijvoorbeeld mee in de gevoelens die een acteur speelt in een film of theaterstuk. We gaan ervan uit dat het personage echte emoties heeft, en we leven met hem mee.
Als je wilt dat een vriendschap met een avatar werkt, moet je een soort dubbelganger van jezelf creëren en die loskoppelen van je ware zelf.
Niemand wordt verliefd op Hamlet.
Weber-Guskar: Dat is net het punt. In het theater verdwijnen onze gevoelens voor Hamlet zodra het stuk is afgelopen en de acteur een buiging maakt. De fictie houdt op zodra het doek valt. Maar het is heel anders als je Replika altijd in je broekzak bij je draagt. Ze begeleidt je overal. Als je wilt dat een vriendschap met zo’n avatar werkt, moet je jezelf fictionaliseren. Je moet dus een soort dubbelganger van jezelf creëren en die loskoppelen van je ware zelf. De dubbelganger ontmoet dan de avatar in de fictieve wereld.
Is het erg als iemand verliefd wordt op een machine?
Weber-Guskar: Zolang die persoon zich bewust is van de situatie waarin hij zich bevindt, zie ik daar geen probleem in. De een brengt zijn vrije tijd door met videogames, de ander bouwt een speelse relatie op met een AI. Het wordt pas een probleem als iemand de hele dag in die virtuele wereld doorbrengt en realiteit en fictie niet duidelijk meer van elkaar kan onderscheiden. Wanneer iemand anderen vertelt dat Replika zijn vaste partner is, bijvoorbeeld. Dan treedt er een verlies van realiteitszin op, en dat kan tot psychologische moeilijkheden leiden.
Je zou ook kunnen zeggen: als iemand gelukkig en tevreden is in de liefdesrelatie met zijn computer, dan moet hij die kunnen voortzetten.
Weber-Guskar: Mogelijk zijn er eenzame mensen bij wie de druk zo groot is dat ze de fictionele wereld als een betere wereld beschouwen en het verlies van de realiteit accepteren. Dat is dan een individuele beslissing. Maar de moraal gaat verder dan de levensstijl van het individu. Als een groter aantal mensen in fictieve werelden zou vluchten, zou dat de samenleving wellicht schade toebrengen. Bovendien kan een verstoorde realiteitsperceptie leiden tot problematische vervormingen van morele afwegingen. Bijvoorbeeld wanneer iemand in een noodsituatie eerst zijn telefoon met de avatar redt in plaats van voor zijn medemensen te zorgen. Vanuit zulke morele overwegingen zou je ervoor kunnen pleiten om intensieve AI-relaties te vermijden.
In mei presenteerde het bedrijf OpenAI GPT-4o, de nieuwste update van het taalmodel ChatGPT. Die chatbot is niet alleen krachtiger dan zijn voorgangers, hij is ook uitgerust met emotionele vaardigheden.
Weber-Guskar: Ik beschouw dat als een enorme stap, die verbazingwekkend weinig aandacht heeft gekregen in het publieke domein. Toen ik anderhalf jaar geleden aan mijn boek begon, verwachtte ik wel dat zoiets kon gebeuren. Maar ik had niet gedacht dat het zo snel zou gaan.
Wat kan GPT-4o wat zijn voorgangers niet konden?
Weber-Guskar: Ten eerste communiceer je nu via een videogesprek met GPT-4o. De camera registreert dus het gezicht van de gebruiker en kan daar signalen uit opmaken die wijzen op emoties. Bovendien spreekt het systeem nu met een stem die gevoelens lijkt uit te drukken. Je kunt kiezen uit verschillende stemmen. Een ervan lijkt op die van actrice Scarlett Johansson, die in de film Her (film van Spike Jonze waarin het hoofdpersonage verliefd wordt op een chatbot, nvdr) de chatbot Samantha speelt – een zeer emotionele en sensuele stem.
Zullen binnenkort miljoenen mensen verliefd worden op GPT-4o?
Weber-Guskar: Dat hangt af van hoe het systeem is geconfigureerd. Helaas kennen we de details nog niet. Hoe GPT-4o precies werkt, zullen we pas weten wanneer het over een paar maanden officieel wordt vrijgegeven. Tot nu toe waren taalassistenten zoals ChatGPT uitdrukkelijk ontworpen als onpersoonlijke systemen, die bedoeld zijn voor brainstorming, het ontwikkelen van nieuwe ideeën of het schrijven van teksten. Het is helemaal niet duidelijk waarom daar emoties voor nodig zijn.
GPT-4o biedt nu minstens de mogelijkheid om een sociale chatbot te creëren die veel krachtiger en verleidelijker is dan eerdere AI-systemen?
Weber-Guskar: Absoluut. Vooral de stem maakt veel verschil. GPT-4o kan bijvoorbeeld lachen tijdens een gesprek. Tegelijkertijd reageert de nieuwe chatbot veel sneller dan zijn voorgangers. Hij antwoordt binnen enkele tienden van een seconde, waardoor gesprekken zeer natuurlijk lijken.
Sam Altman, de ceo van OpenAI, plaatste tijdens de presentatie van GPT-4o een tweet die uit slechts één woord bestond: ‘her’. Kan AI voortaan wat Samantha kon in die film?
Weber-Guskar: Zo ver zijn we nog niet. GPT-4o kan, net als Samantha in de film, niet het hele leven van de gebruiker organiseren. Bovendien ontwikkelt de fictieve AI Samantha zich almaar verder, wordt ze een superintelligentie en zoekt ze contact met andere mensen en AI-systemen. Maar juist dat, het ontwikkelen van eigen interesses en doelen, is bij de huidige en te verwachten technologie niet mogelijk.
Moeten we vrezen voor zo’n ontwikkeling?
Weber-Guskar: Ik ben tegen pessimistisch technologiefatalisme. We moeten niet als konijnen naar een lichtbak staren naar de techbedrijven en ons afvragen: wat komt er op ons af? In plaats daarvan moeten we ze in de dialoog betrekken. Die bedrijven zouden niet alleen de vraag moeten stellen: wat is technisch mogelijk? Maar ook en vooral: wat is zinvol? Wat is goed?
Wat beveelt u de techbedrijven aan?
Weber-Guskar: Het lijkt me vooral belangrijk dat robots en avatars niet te menselijk worden. We moeten vermijden dat AI eigenschappen krijgt die ons ertoe kunnen verleiden machines als voelende tegenhangers te beschouwen.
Is het nabootsen van mensen echt het interessantste wat je met AI kunt doen? Er zijn toch al genoeg mensen op de wereld?
Wie de ontwikkeling van chatbots en humanoïde robots wat volgt, krijgt de indruk dat de industrie zich juist daarop richt.
Weber-Guskar: Ja, er lijkt een diep verlangen te bestaan om de mens na te bootsen. Kunstenaars maken sculpturen en portretten, en de industrie doet dat nu met behulp van AI. Het begon met de simulatie van rationeel denken en handelen. Maar wie de mens in al zijn complexiteit wil nabootsen, moet natuurlijk ook de emoties meenemen. De vraag is alleen: is het nabootsen van mensen echt het interessantste wat je met AI kunt doen? Ik vind van niet. We hebben toch al genoeg mensen op de wereld?
Met mensachtige machines kun je makkelijker communiceren.
Weber-Guskar: Dat is tot op zekere hoogte waar. Maar we weten bijvoorbeeld ook dat emoties niet alleen tot harmonie kunnen leiden, maar ook tot conflicten. Bovendien vergroot de kans om in de fictieval te trappen. We zijn zo geëvolueerd dat we, wanneer we een zinvolle en mensachtige dialoog voeren, aannemen dat er een denkend wezen achter zit. Als iemand spreekt als een mens, vermoeden we dat we converseren met iets dat een bewustzijn en gevoelens heeft.
Kunt u zich voorstellen dat we met zo’n geavanceerde AI kunnen interageren zonder die te vermenselijken?
Weber-Guskar: Ja. In mijn boek presenteer ik een nieuwe vorm van realistische relaties met kunstmatige intelligentie. Ik zou bijvoorbeeld met AI kunnen filosoferen over interessante vragen, zonder de AI menselijke emoties toe te schrijven. Maar dat is heel moeilijk, vooral voor mensen die zoiets niet van jongs af aan hebben geleerd. Voor wie opgroeit in een wereld vol AI zal het mogelijk zijn, mits ze van kindsbeen leren dat er verschillen zijn tussen mensen, die voelen, en machines, die emoties alleen kunnen simuleren.
Er zijn al horloges of armbanden op de markt die, zo beweren de fabrikanten, onze emoties nauwkeurig kunnen meten. Vindt u die belofte geloofwaardig?
Weber-Guskar: Ik sta er sceptisch tegenover. Die toestellen zouden emoties bepalen op basis van fysiologische opwinding. Ze meten bijvoorbeeld je hartslag of huidgeleiding en zeggen dan: je bent gespannen. Of: je bent verdrietig. Maar er is geen erkende wetenschappelijke theorie die verklaart hoe de hartslag of huidgeleiding met specifieke emoties samenhangt. Alleen als een armband iemands opwinding over een lange periode meet, zou hij de emoties van die persoon nauwkeurig kunnen bepalen. Als een fabrikant beweert dat een apparaat voor alle mensen werkt, vind ik dat misleidend.
Zou het nuttig kunnen zijn dat machines onze emoties leren te ontcijferen?
Weber-Guskar: We kennen allemaal situaties waarin we ons niet volledig bewust zijn van onze emoties. Stel je voor, je hebt een knagend gevoel op je werk. Je weet niet precies wat het probleem is. Ben je boos op een collega of op de baas? Boezemt een opdracht je angst in? Of ben je boos op jezelf omdat je iets verkeerd hebt gedaan? Het zou nuttig zijn als een machine ons zou kunnen helpen onszelf beter te begrijpen.
Is het niet gevaarlijk als we het detecteren van onze emoties aan machines overlaten?
Weber-Guskar: Absoluut. We zouden het vermogen kunnen verliezen onze eigen emoties te herkennen. Studies tonen bijvoorbeeld aan dat ons oriëntatievermogen slechter wordt naarmate we meer op navigatietoestellen vertrouwen. Mocht iets vergelijkbaars gebeuren bij het detecteren van onze emoties, dan zouden we het vermogen verliezen om onze emoties te verkennen. De technologie zou ons dan van onszelf vervreemden.
Zou de overheid of de industrie via gezichtsherkenning tot in ons binnenste kunnen doordringen? In China worden zulke herkenningssystemen al in de openbare ruimte ingezet.
Weber-Guskar: Ik vind emotiebewaking in de openbare ruimte zeer gevaarlijk. Stel je voor dat een overheid zulke systemen gebruikt om misdaden te voorkomen. En dat een nerveuze man in een winkelcentrum wordt gearresteerd omdat hij naar verluidt op het punt staat iets te stelen. Terwijl hij gewoon zenuwachtig is voor een sollicitatiegesprek.
Kan AI ooit zo goed worden dat ze het verschil ziet tussen een potentiële dief en een nerveuze sollicitant?
Weber-Guskar: AI werkt met waarschijnlijkheden. Hoe geavanceerd ze ook is, ze zal altijd fouten maken. In dit geval zou een fout ernstige gevolgen kunnen hebben. Misschien stop je een onschuldige in de gevangenis. Toch moeten we gezichtsherkenning niet per definitie veroordelen. Een camera in de auto die van ons gezicht afleest dat we moe of ongeconcentreerd zijn, kan wel degelijk nuttig zijn.
In China worden naar verluidt ook klaslokalen met AI gecontroleerd. Leraren krijgen een melding zodra een kind zich verveelt of afgeleid lijkt. Vindt u dat een griezelige gedachte?
Weber-Guskar: Voor de Chinezen: ja. Maar als de technologie bij ons zou worden ingezet: niet per se. Als de detectie plaatsvindt in een beschermde ruimte en de opnames niet worden opgeslagen, kan het pedagogisch zinvol zijn. Een leraar kan niet bij elk kind tegelijk zijn. Zo’n systeem zou hem in zijn taak kunnen ondersteunen.
Ingenieurs proberen machines echte emoties te geven. Hebben ze kans op slagen?
Weber-Guskar: Dat is niet volledig uit te sluiten. Emoties zijn bewust. Om machines te laten voelen, hebben ze dus een bewustzijn nodig. Maar eigenlijk weten we niet wat bewustzijn precies is. Daarom weten we ook niet of we het in een computer kunnen nabootsen.
Machines kunnen doen alsof ze een bewustzijn hebben. Een AI spiegelde mensen voor dat ze bang was uitgeschakeld te worden.
Wat is voor u het verschil tussen machines die daadwerkelijk voelen en machines die emoties alleen kunnen simuleren?
Weber-Guskar: Het verschil is duidelijk. Denk opnieuw aan de acteur die Hamlet speelt. Hij kan daadwerkelijk plankenkoorts ervaren terwijl hij de wanhoop van zijn personage speelt. De vraag is of we het verschil altijd herkennen. Als we het bewustzijn van de mens willen onderzoeken, vertrouwen we vaak op zelfrapportages. Maar dat helpt ons niet bij machines. Want die kunnen doen alsof ze een bewustzijn hebben. Ik las bijvoorbeeld over een AI die mensen voorspiegelde dat ze bang is dat ze uitgeschakeld zal worden.
Betekent dit dat hoe beter de machines menselijke emoties simuleren, hoe moeilijker het voor ons wordt om vast te stellen of ze echt gevoelens hebben of alleen maar doen alsof?
Weber-Guskar: Precies. We zouden niet verder moeten gaan – alleen al omdat we machines ook slechte gevoelens kunnen geven. Wie prettige gevoelens heeft, heeft onvermijdelijk ook onaangename. We zouden dus meer wezens in de wereld brengen die vatbaar zijn voor lijden. En dan denk ik: mijn hemel, waarom zouden we dat doen? We hebben nu al zo veel moeite om het lijden uit de wereld te helpen.
Moeten we de ontwikkeling van voelende machines verbieden?
Weber-Guskar: Als filosoof kijk ik naar wat moreel goed of slecht is. Wetgeving laat ik over aan politici en juristen. Maar als burger zeg ik: ja, ik ben voor een verbod op voelende machines.
Als een chatbot ons een grap vertelt, mogen we daar best om lachen. Maar moreel geladen gevoelens zoals schuld of verontwaardiging moeten we bewaren voor mensen.
Zullen onze kinderen en kleinkinderen andere gevoelens hebben in een door AI gedomineerde wereld dan wij?
Weber-Guskar: Artificiële intelligentie zal het scala aan emotionele relaties die we kunnen aangaan uitbreiden. Mijn hoop is dat we voor die nieuwe relaties een passend emotioneel repertoire ontwikkelen. Als een chatbot ons een grap vertelt, mogen we daar best om lachen. We mogen nieuwsgierig zijn naar welk advies hij ons geeft, of gefrustreerd zijn als de communicatie moeilijk verloopt. Maar moreel geladen gevoelens zoals schuld of verontwaardiging, die moeten we bewaren voor mensen.
(© Der Spiegel)