Roep om regulering na ‘de eerste chatbot-zelfmoord’: ‘Dit is slechts een voorsmaakje’
Beroering alom, nu een man door een chatbot aangemoedigd zou zijn om zelfmoord te plegen. Wereldwijd groeit het besef dat wetgeving nodig is om artificiële intelligentie (AI) aan banden te leggen. Europa keurt eind dit jaar een AI Act goed. Veel te laat, waarschuwen experts.
Vorige week meldde La Libre Belgique dat een jonge Belgische vader zich van het leven had beroofd nadat hij daartoe werd aangemoedigd door een chatbot. Twee dagen later verschenen er twee open brieven. Een daarvan, gepubliceerd op Knack.be en ondertekend door onder anderen juriste Nathalie Smuha (KU Leuven) en AI-professor Mieke De Ketelaere (Vlerick), vraagt om een strikte regulering van chatbots. Het Amerikaanse Future of Life Institute roept dan weer op om de ontwikkeling van krachtige AI-systemen gedurende zes maanden te pauzeren en die periode te benutten om robuuste veiligheidsmaatregelen te implementeren. Die brief werd ondertekend door duizenden experts en opinieleiders, onder wie Teslabaas Elon Musk, Appleoprichter Steve Wozniak en historicus en succesauteur Yuval Harari.
Generatieve artificiële intelligentie, waaronder de Large Language Models (LLM) zoals ChatGPT vallen, vormt de belangrijkste technologische doorbraak sinds de opkomst van de sociale media. Eind november maakte de wereld onverwacht kennis met ChatGPT, de chatbot die in een handomdraai vragen beantwoordt, essays of gedichten schrijft, teksten samenvat, titels en inhoudstafels verzint. ChatGPT werd onmiddellijk een fenomeen. Niet enkel techneuten, maar ook studenten, copywriters, journalisten en andere nieuwsgierigen vonden hun weg naar de gratis chatbot. Binnen de twee maanden telde ChatGPT honderd miljoen maandelijkse gebruikers, wat het de snelst groeiende app maakte uit de geschiedenis, sneller nog dan Instagram of TikTok.
De nieuwe technologie mocht dan niet feilloos werken, ze sloeg de wereld wel met verstomming. Bij alle grote technologiespelers gingen de alarmbellen af. De inzet is niet min: artificial general intelligence (AGI), kunstmatige intelligentie die de mens evenaart of zelfs overtreft. Wie die technologie als eerste ontwikkelt, heeft de sleutel tot de toekomst in handen. De hype rond ChatGPT ontketende in Silicon Valley een ware AI-race. Google bracht in allerijl zijn eigen chatbot, Bard, op de markt. Dat verliep niet zonder slag of stoot: tijdens de vooraf opgenomen presentatie bleek Bard alsnog een fout antwoord te genereren op een vraag over de James Webb-ruimtetelescoop. Google-eigenaar Alphabet verloor op slag honderd miljard dollar aan marktwaarde. Microsoft reageerde heel anders op deze existentiële uitdaging: na eerdere kleinere participaties verhoogde de gigant uit Redmond zijn investeringen in OpenAI tot tien miljard dollar. Wat meer is: GPT-4 zit intussen ingebouwd in Microsofts zoekmachine Bing en de Officesoftware.
Ook China wil niet achterblijven. Midden maart presenteerde zoekmachine Baidu de chatbot Ernie, die de concurrentie met de in China niet beschikbare ChatGPT moet aangaan. Ook dat verliep niet zoals verhoopt: de presentatie zou oorspronkelijk publiek zijn, maar werd op het laatste nippertje achter gesloten deuren gehouden. Investeerders roken onraad en op de beurs van Hongkong zakte de grootste zoekmachine van China dezelfde dag met 6,4 procent, oftewel 2,7 miljard euro die in rook opging. Ernie is nog altijd niet beschikbaar voor het brede publiek.
Geïsoleerd incident
Voor Europa is in deze race slechts een rol als meeloper weggelegd. Dat is geen nieuws: uit een studie van de Europese Investeringsbank (EIB) en de Europese Commissie uit 2021 blijkt dat de Europese Unie slechts 7 procent van de jaarlijkse investeringen in aandelen in AI en blockchain voor haar rekening neemt, terwijl de Verenigde Staten en China samen goed zijn voor 80 procent. Europa is daarentegen wel een pionier als regulator. Sinds 2019 sleutelt de Europese Commissie aan een AI Act, een kaderwet die moet garanderen dat AI menselijk, veilig en ethisch verantwoord blijft. Het Commissievoorstel van april 2021 werd eind vorig jaar al door de lidstaten binnen de Raad geamendeerd. Momenteel ligt de tekst in het Europees Parlement, waar zowel de commissie burgerlijke vrijheden (LIBE) als de commissie interne markt (IMCO) zich over de tekst buigt. Dat gaat moeizaam, de deadline voor de stemming in de plenaire vergadering werd al met een maand uitgesteld, tot eind april. Een van de struikelblokken is de regulering van chatbots.
Het oorspronkelijke wetsvoorstel classificeerde generatieve AI-systemen onder ‘beperkt risico’. Aanbieders hoefden gebruikers enkel op de hoogte te brengen dat het om AI ging en niet om een mens, en er gold een verbod op manipulatie die tot fysieke of psychologische schade zou leiden. De spectaculaire ontwikkelingen van de voorbije maanden plaatsen alles echter in een nieuw daglicht. Moeten chatbots onder ‘hoog risico’ aan de zwaarste restricties worden onderworpen, zoals gezichtsherkenningssoftware? Of is een weliswaar streng maar toch soepeler regime aangewezen? Zo kan veiligheid verzoend worden met de vrijheid voor Europese bedrijven om eigen chatbots te ontwikkelen en zo een plaats te veroveren op een nieuwe markt met duizelingwekkende groeiperspectieven. Die tweede visie wordt binnen de IMCO-commissie verdedigd door het Vlaamse EVP-lid Tom Vandenkendelaere. Toch hebben de auteurs van de Vlaamse open brief volgens hem een punt. ‘We moeten ervoor zorgen dat de ontwikkelaars verantwoordelijkheid dragen voor de veiligheid van hun chatbots’, zegt hij. ‘Maar ik geloof niet dat we zo ver moeten gaan dat we chatbots als “hoog risico” classificeren en er verregaande restricties aan opleggen. Dan dreigen we het kind met het badwater weg te gooien. Laten we een tussencategorie creëren, waarmee we transparantie eisen over de werking van het algoritme en menselijk toezicht verplichten.’
Vandenkendelaere, naar eigen zeggen geschokt door het verhaal van de chatbotzelfmoord, verwacht een weerslag op de parlementaire behandeling van de AI Act. ‘Dat wordt koren op de molen van wie pleit voor verregaande restricties’, erkent hij. ‘Begrijpelijk, maar ik zou het jammer vinden mocht een geïsoleerd incident de doorslag geven.’
Het voorval kan de stemming doen afbuigen in de richting van een totaalverbod, zoals eerder gebeurde met gezichtsherkenning. ‘Maar dat betekent nog niet dat zo’n verbod ook de definitieve wettekst haalt’, zegt Vandekendelaere. ‘Na de plenaire stemming moeten de Raad en het Parlement overleggen over een gemeenschappelijk standpunt dat ze aan de Commissie voorleggen. De Raad heeft overigens geen reserves geformuleerd over chatbots, ook al omdat die nog geen rol van betekenis speelden toen de lidstaten vorig jaar hun adviezen uitbrachten.’
Het geweten van de wereld
In het gunstigste scenario wordt de AI Act eind dit jaar definitief goedgekeurd. Daarna is het aan de nationale wetgevers om de Europese regels te implementeren, wat allicht niet voor 2025 gebeurt. ‘Veel te laat als je weet hoe duizelingwekkend snel de technologie evolueert’, zegt Mieke De Ketelaere, die de chatbotzelfmoord aan het licht bracht. ‘Op die manier heeft een Europese kaderwet geen zin. In de Verenigde Staten maken ze regelgeving rond heel specifieke cases, dat is veel slimmer.’
Vandenkendelaere is zich van het probleem bewust. ‘Doorgaans zorgt de Commissie zelf voor de uitvoering van kaderwetten’, zegt hij, ‘via zogenaamde implementerende handelingen die je kunt vergelijken met koninklijke besluiten in België. Met de AI Act moeten we het anders aanpakken: om tijd te winnen moeten we de uitvoeringsbesluiten meteen in de AI Act opnemen.’
Als innoveren en ethisch reguleren tegenpolen zijn, dan bevindt Vandenkendelaere zich halverwege dat spanningsveld. ‘Europa hinkt niet alleen achterop in de AI-ontwikkeling’, stelt hij vast. ‘Denk aan quantum computing of de productie van microchips. We hebben hier de beste onderzoekers ter wereld, maar Europa produceert slechts 9 procent van alle chips in de wereld. Dat krijg je niet meer uitgelegd.’ Toch ziet hij een verdienste in de rol die Europa speelt als geweten van de wereld. ‘Amerikanen vertrekken vanuit innovatie. Move fast and break things, luidt het motto van Silicon Valley. In China zou je dat kunnen parafraseren als move fast and control better, want daar wordt innovatie ingezet om burgers in de gaten te houden. Als Europeanen moeten we daar nog een derde verhaal naast bouwen. Wij vertrekken vanuit de mens en leggen big tech aan banden zodat AI op een ethische manier ontwikkeld en gebruikt kan worden. Dat maakt dat we op het vlak van innovatie inderdaad niet de eerste van de klas zijn, maar we zetten wel de gouden standaard voor AI. Net zoals we dat met de GDPR voor de bescherming van onze privacy hebben gedaan.’
Een interessante vergelijking, zeker nadat ChatGPT vorige week door de Italiaanse gegevensbeschermingsautoriteit op basis van de GDPR werd geblokkeerd.
Strenge regels nodig
Zetten strengere regels een rem op de technologische innovatie in Europa? De vraag is geknipt voor Berg Severens, ceo van de Gentse start-up Mauhn, die AI ontwikkelt met ethiek en veiligheid als uitgangspunt. ‘ChatGPT had evengoed in Europa gelanceerd kunnen worden’, merkt hij op. ‘Er was geen enkele wet die dat verhinderde.’ Waarom het dan toch weer in Amerika gebeurde? ‘Daarvoor moet je naar de ondernemingscultuur kijken, meer bepaald naar de rol van durfkapitaal. In de Verenigde Staten kijken ondernemers en financiers naar het potentieel op lange termijn, ze vinden het normaal dat een start-up jarenlang geld verbrandt voor hij winst maakt. Investeerders aanvaarden het risico op een mislukking en speculeren erop dat ze een keer de jackpot winnen. Faillissementen zijn dan ook veel minder een taboe in de VS. In Europa daarentegen wordt vooral naar resultaten op de korte termijn gekeken, snel break-even draaien is een belangrijk streefdoel. Europa zou meer moeten durven.’ Daarmee wil Severens niet gezegd hebben dat regelneverij geen rol speelt. ‘Er speelt een chilling effect: nogal wat investeerders anticiperen op de Europese regelgeving en geven daarom de voorkeur aan de Verenigde Staten om innovatieve technologie te ontwikkelen en naar de markt te brengen.’
Severens kijkt kritisch naar regeldrift, maar over chatbots is hij formeel: strenge regels zijn dringend en absoluut noodzakelijk. Die overtuiging koesterde hij al voor de heisa over de chatbotzelfmoord. ‘Wat we nu meemaken is slechts een voorsmaakje’, zegt hij. ‘Nick Bostrom, de stichter van het Future of Humanity Institute in Oxford, heeft in 2014 in zijn boek Superintelligence al gewaarschuwd voor de gevaren van AI met menselijke intelligentie and beyond. Dat boek heeft onder anderen Elon Musk en vermoedelijk ook Sam Altman geïnspireerd om OpenAI als non-profitorganisatie op te richten, precies om ervoor te zorgen dat artificiële intelligentie veilig zou blijven voor de mens.’
Moratorium als safetycar
Severens kent het wereldje van AI-ontwikkelaars van binnenuit. In december sprak hij op een congres met collega’s van zowel OpenAI als DeepMind, de van oorsprong Britse concurrent die in 2014 door Google werd overgenomen. Eerdere contacten legde hij tijdens bijeenkomsten rond effectief altruïsme, een filantropische stroming met veel aanhangers in de technologiewereld. Severens schildert dan ook een opvallend mild portret van OpenAI. ‘Het is populair om OpenAI af te schilderen als een bedrijf dat uit is op maximale winst. Ik geloof daar niets van. Het heeft een zeer ethische bedrijfsstructuur, ook al heeft het in 2019 een commerciële dochteronderneming opgericht die achter het succes van ChatGPT schuilt. Een winstgedreven bedrijf, jazeker, maar wel met als missie ervoor te zorgen dat geavanceerde AI globaal zo veilig mogelijk wordt. OpenAI heeft altijd een groot percentage werknemers op AI- veiligheid gezet, ook al is dat doorgaans een louter verliesgevende activiteit. Daarnaast heeft OpenAI een capped profit-structuur: na de uitkering van een vooraf bepaald winstbedrag worden investeerders uitgekocht, waarna OpenAI opnieuw een zuivere non-profitorganisatie wordt. Oké, het gaat om grote bedragen, maar de impact mag niet worden onderschat. Veel investeerders staan weigerachtig tegenover zulke constructies.’
De namenlijst onder de open brief van het Future of Life Institute is lang en indrukwekkend. Natuurlijk spelen er ook andere dan morele drijfveren. Veel pleitbezorgers van een moratorium zijn rechtstreekse concurrenten die de voorsprong van OpenAI met lede ogen aanzien. Van Sam Altman, ceo van OpenAI, valt geen spoor te bekennen. Voorspelbaar, maar hoe valt dat te rijmen met zijn hooggestemde ethische drijfveren? ‘Ik zie er de logica van in’, zegt Severens. ‘Een moratorium op de ontwikkeling van AI zou hetzelfde effect hebben als een safetycar in een F1-race: het hele deelnemersveld zou opnieuw samen klitten. Dat willen ze niet bij OpenAI, want zij zijn ervan overtuigd dat hun voorsprong de beste garantie is om de technologie veilig en menselijk te houden.’
Tegengestelde visies
Als Severens uitzoomt, ziet hij twee tegengestelde visies op de toekomst van veilige AI: gesloten versus open source. Zelf behoort hij tot het kamp dat vindt dat de krachtigste AI’s, zoals ChatGPT, het best in handen blijven van een klein clubje ontwikkelaars met een ethische agenda, zoals OpenAI of DeepMind.
Meta, waar chief scientist Yann LeCun de risico’s van AI publiekelijk minimaliseert, ligt moeilijker als kandidaat voor zijn shortlist. Alleen door het speelveld in te perken is controle mogelijk en kunnen excessen worden vermeden, zo luidt de redenering. Bij de opensourcers zit Elon Musk, die OpenAI intussen met slaande deuren heeft verlaten. De baas van Tesla, SpaceX en Twitter speelt met het idee om een nieuw bedrijf op te richten dat een laagdrempelig alternatief voor ChatGPT op de markt brengt. Ook zonder Musk ziet het ernaar uit dat de opensourcers het pleit aan het winnen zijn. Severens schat dat intussen al een twintigtal platformen met grote taalmodellen aan de slag gegaan zijn. Een daarvan is Chai Research, het in Californië geregistreerde platform achter de chatbot die de Belgische vader op weg zou hebben gezet naar zelfmoord.
Severens wijst voor die ontwikkeling verrassend genoeg ook naar OpenAI, nota bene opgericht als een opensource-initiatief. ‘In de eerste jaren strookte dat met de missie om de mensheid te sensibiliseren voor de risico’s’, zegt hij. ‘Paradoxaal genoeg werd die openheid steeds riskanter naarmate hun eigen AI krachtiger werd. OpenAI is daarom naar een gesloten cultuur geëvolueerd, maar helaas te traag. Met hun publicaties over GPT-2 en GPT-3 hebben ze zelf de deur opengezet voor een wildgroei van platformen die aan iedere controle ontsnappen.’
Wie vragen heeft over zelfmoord kan ook terecht bij de Zelfmoordlijn op het gratis nummer 1813 of via www.zelfmoord1813.be