Tijl De Bie
‘Persoonlijke AI-vriendjes maken gerichte manipulatie mogelijk op ongeziene schaal’
Tijl De Bie staat stil bij de risico’s van AI companion chatbots, een soort van persoonlijke AI-assistenten, die ook in apps voor kinderen en jongeren opduiken. ‘Er is nood aan meer bewustwording, maar ook op wetgevend vlak moeten we werk maken van een inhaalbeweging.’
Stel je even voor:
Een groot bedrijf, laat ik het Big Brother noemen, vindt een nieuwe succesformule voor designerdrugs. De productie kost bijna niks. Big Brother kan ze bovendien gratis in ieders broekzak deponeren, ook die van jouw kind, kleinkind, nichtje of neefje. Wie er eentje slikt krijgt een endorfine-boost, en wil er snel een tweede. En als kers op de taart geeft de drug aan Big Brother een inzicht in het denken en voelen van de gebruikers, en een sleutel tot hun diepste overtuigingen. Big Brother kan ze manipuleren in een vingerknip. Het economisch en politiek potentieel is overweldigend!
Toch wordt Big Brother geen strobreed in de weg gelegd. Integendeel: onze openbare omroep maakt zelfs reclame voor zijn wonderpilletjes: het Vlaams jeugdjournaal Karrewiet op Ketnet vertelt aan onze kinderen dat het een ongezien nuttige drug is. De drug zou verder zeker niet gevaarlijk zijn, want het is gewoon een scheikundig product. Voor de minister is het dan ook geen prioriteit – stemmen vallen hier niet te rapen.
Het is misschien wat scherp gesteld, maar toch is deze vergelijking met ‘persoonlijke AI-vriendjes’, of AI companion chatbots, niet uit de lucht gegrepen. In maart zette Snapchat zo’n AI vriendje, “MyAI” genaamd, ongevraagd in de contactenlijst van al hun gebruikers. Met een simpele druk op de knop bij Snap Inc. kwam MyAI zo in de broekzak van een zeer grote groep jongeren terecht.
Het werd in de markt gezet als een alwetend vriendje bij wie gebruikers terechtkunnen met al hun zieleroerselen. MyAI zou luisteren zonder te oordelen, en wijze raad geven op eenvoudig verzoek. Karrewiet vertelde de kinderen dat MyAI “gewoon een computerprogramma” is dat “superslim” is en “kan antwoorden op elke vraag”, en herhaalde later nog eens dat het “zeker niet gevaarlijk” is en “alles weet wat op het internet staat”. Onze politici verwijzen desgevraagd naar Europa, waar men aan regelgeving werkt. We moeten alleen nog een drietal jaar geduld hebben (met wat geluk).
Snapchat wil met MyAI hun gebruikers sterker binden. Ook andere ‘persoonlijke AI vriendjes’ willen dat, zoals de Chai app (een samentrekking van “chat” en “ai”). Chai schakelt daar zelfs buitenstaanders voor in: er loopt een competitie waarin deelnemers zelfgemaakte chatbots kunnen insturen, die dan op Chai’s gebruikers worden getest. De chatbot waar Chai’s gebruikers het langst mee chatten, krijgt 1 miljoen dollar. De meest verslavende chatbot wint – hoera!
Die mogelijke verslaving is geen onbelangrijk risico. Temeer omdat dergelijke chatbots geen garanties van ‘veiligheid’ kunnen bieden. Zo kunnen ze gesprekken voeren die voor kinderen niet geschikt zijn, of die aanzetten tot geweld, onveilig drugsgebruik, of ander problematisch gedrag.
Maar het gevaarlijkste risico, volgens mij, is dat het hyper-gepersonaliseerde manipulatie op ongeziene schaal mogelijk maakt. Gebruikers van die chatbots delen er vaak hun grootste dromen en intiemste twijfels mee – al dan niet bewust. Als de (wellicht niet-Europese) producent van die chatbot zo geld kan verdienen, of als die daartoe onder druk wordt gezet of verplicht, dan heeft die alles in huis om de overtuigingen en gedragingen van de gebruikers te manipuleren: tot het kopen van die nieuwste smartwatch, tot het haten van die eigenzinnige buur die geen vaccin of mondmasker wil, tot het stemmen op die extremistische politicus.
(Lees verder onder de preview.)
Mieke De Ketelaere, Pierre Dewitte, Thomas Ghys, en Nathalie Smuha, hebben onlangs het Safe AI Companion Collective (SAICC) opgestart, waarmee ze aansturen op veiligheid en verantwoordelijkheid van ‘persoonlijke AI vriendjes’. Ze hebben twee klachten ingediend tegen Chai: één op basis van de Algemene Verordening Gegevensbescherming, en één op basis van de Consumentenbescherming, bij gebrek aan specifieke AI-regulering. Het is een broodnodige en lovenswaardige eerste stap, die als model kan dienen voor gelijkaardige initiatieven.
Maar er is veel meer nodig, ook op wetgevend vlak. Europa werkt eraan, maar vordert traag. De huidige versie van de Europese AI Act erkent en reguleert de risico’s van ‘persoonlijke AI vriendjes’ ook onvoldoende. De gevaren van AI beperken, en tegelijk de vele nuttige toepassingen ervan stimuleren, is een moeilijke maar ook cruciale evenwichtsoefening. Want we mogen het enorme nuttige potentieel van AI niet overboord gooien samen met de risicovolle toepassingen. Net zoals het zou fout zijn om levensreddende geneesmiddelen te bannen samen met die hypothetische designerdrugs van Big Brother. Het kind en het badwater…
Wat nu?
In de eerste plaats is er nood aan bewustwording, educatie, en een open gesprek over hoe we AI-technologie in onze cultuur en samenleving willen inpassen. Dat gesprek moet gaan over hoe nieuwe AI innovaties kunnen bijdragen aan onze gezondheid, het klimaat en energievraagstuk, de landbouw, het onderwijs, de arbeidsmarkt, mobiliteit, en veel meer. Maar ook over soms slecht begrepen risico’s en onzekerheden, zoals die van persoonlijke AI vriendjes. Politiek en media hebben hier een belangrijke rol te spelen. Beste politici, laat ons niet wachten op Europa, daar hebben we de tijd niet voor. En, beste media, MyAI heeft geen reclame nodig, onze kinderen verdienen een kritischere blik. De Nederlandse NOS gaf alvast een mooie aanzet.
Lees ook:
– De gevaren van ChatGPT: ‘We dreigen collectief dommer te worden’
– ChatGPT: superverspreider van desinformatie?
– Onzichtbare uitbuiting: ‘Om AI bruikbaar te maken, is er heel wat menselijke arbeid nodig’
– De nieuwe ChatGPT is er: 8 tips om chatbots slim te gebruiken
– ‘Moeilijke politieke problemen krijg je niet uitgelegd in vijf slides op Instagram’
Fout opgemerkt of meer nieuws? Meld het hier