Algoritmes op sociale media: vriend of vijand van de factchecker?
Wanneer sociale media in het vizier komen van critici, gaat het al snel over ‘de algoritmes’ die allerlei beslissingen nemen en berichten censureren. Zelfs onschuldige foto’s en reguliere factchecks worden zo soms offline gehaald. Hoe kan het anders en beter?
Iedere week zoekt Knack naar misleidende informatie op het internet.
Bij de eedaflegging van de Amerikaanse president Joe Biden, in januari van dit jaar, ging een foto viraal van senator Bernie Sanders uit de staat Vermont. Stoïcijns zat de 79-jarige politicus op een stoel, met gekruiste benen en een paar opvallende gebreide wanten die hij kreeg van een sympathisante. De foto was een hit en werd over de hele wereld in allerlei contexten gefotoshopt – van het bankje naast Forrest Gump tot het oppervlak van de planeet Mars. ‘Topinfluencer, die Bernie!’ tweette taalkundige Miet Ooms, gevolgd door een knipogende smiley. Prompt werd haar Twitterprofiel voor 12 uur geblokkeerd wegens ‘wangedrag en intimidatie’ en kreeg ze een e-mail die haar aanmaande om de tweet te verwijderen. Wat was er gebeurd? De filters van Twitter hadden haar bericht in het Engels gelezen en het als een doodsbedreiging aan het adres van Sanders beschouwd. ‘Die Bernie’ was vertaald als ‘Sterf, Bernie’ – en volgens de gebruiksvoorwaarden van Twitter is ‘het toewensen van fysieke verwondingen, of hopen dat iemand fysiek iets overkomt’ verboden.
Het voorval is geen uitzondering. Onder de motorkap van sociale media draaien heel wat algoritmes en die zijn nooit perfect. Ze bepalen bijvoorbeeld welke berichten je op je persoonlijke Facebook-feed te zien krijgt, in de volgorde dat ze jou vermoedelijk interesseren. Maar algoritmes beslissen ook steeds vaker over wat er op de platformen toegelaten of verwijderd wordt. Zo plaatsen automatische filters waarschuwingsvlagjes bij berichten die volgens de regels van Facebook, Twitter of Instagram niet toegelaten zijn. Een bepaald woord of een uitroepteken te veel kan er al voor zorgen dat de Facebookadvertentie die je wilt plaatsen algoritmisch afgewezen wordt wegens ‘sensationeel taalgebruik’. Misleidende informatie over het coronavirus of vaccinaties wordt sinds vorig jaar ook automatisch gesignaleerd.
Onvruchtbaarheid
Dat klinkt als goed nieuws voor factcheckers: als desinformatie automatisch van sociale media verdwijnt, krijgen zij minder werk op hun bord. Maar, helaas, ook factchecks zelf worden geregeld het slachtoffer van slecht functionerende algoritmes. Die herkennen dan het verschil niet tussen desinformatie over coronavaccins enerzijds en berichten van factcheckers anderzijds, die de misleidende informatie net proberen te weerleggen. YouTube verwijderde vorige week nog een video van een populaire wetenschappelijke account met 215.000 volgers wegens de titel: ‘Coronavaccins veroorzaken onvruchtbaarheid – FACT CHECK’. Het ging net om een video die het gerucht over ‘onvruchtbaarheid veroorzakende vaccins’ ontkrachtte. Pas na enkele dagen en een steuncampagne op sociale media plaatste YouTube de video terug.
Topinfluencer, die Bernie!’ tweette taalkundige Miet Ooms. Prompt werd haar Twitterprofiel 12 uur geblokkeerd.
Zijn meer menselijke moderators de oplossing? Momenteel maken de grote wereldwijde platformen gebruik van een combinatie van automatische filters en moderators, die een steekproef van de aangestipte inhoud controleren. Facebook heeft duizenden mensen in dienst die posts inhoudelijk moeten beoordelen. Elke dag worden zij gebombardeerd met soms banale inbreuken op de Facebookregels, maar ook met de meest vreselijke berichten: terroristische propaganda, livestreams van moorden, onthoofdingsfilmpjes, kinderporno enzovoort. Vorig jaar betaalde Facebook nog een schadevergoeding van miljoenen uit aan getraumatiseerde moderators.
Tepelalgoritme
Tegelijkertijd worden de algoritmische filters ook steeds verfijnder – al gebeurt dat soms pas na jarenlange campagnes van gebruikers en activisten. Het ’tepelalgoritme’ van Instagram is een mooi voorbeeld. Platformen als Facebook en Instagram laten topless foto’s van vrouwen niet toe wanneer er een tepel te zien is. (Van mannen dan weer wel, wat tot heel wat protest heeft geleid en een heuse campagne met als slogan #FreeTheNipple.) Er zit geen legertje moderators door alle Instagram-foto’s te scrollen: afbeeldingen met vrouwentepels worden meestal verwijderd door een filter die ze ‘herkent’. Maar het vangnet dat daarbij gespannen werd, was lange tijd erg breed. Ook foto’s van vrouwen die borstvoeding gaven, werden automatisch verwijderd, net als foto’s die vrouwen deelden na een borstreconstructie-operatie. Zelfs afbeeldingen van jongens met lange haren zonder T-shirt werden door de Instagramfilters als ‘vrouwen’ geïdentificeerd. Naakt in schilderijen en standbeelden is wel toegelaten, maar naakte kunstfoto’s dan weer niet. Zowel de regels als de algoritmes zijn de voorbije jaren verfijnd, maar met de regelmaat van de klok ontstaat er ophef omdat er toch een ondertussen toegelaten foto ten onrechte verwijderd wordt.
Gelyncht
Misschien gloort er via algoritmes ook hoop aan de horizon. Op 9 mei meldde het Oxford Internet Institute dat computeronderzoekers van Oxford, MIT, de University of Michigan en het techbedrijf Meedan samen een succesvol algoritme hebben ontwikkeld om in verschillende talen virale foute berichten te herkennen, in het bijzonder wanneer die gedeeld worden via private berichtenapps zoals WhatsApp. In tegenstelling tot het ‘openbare’ internet is fakenieuws dat mensen via dergelijke apps onderling naar elkaar sturen, als een soort kettingbrieven, grotendeels een zwart gat voor factcheckers. Het nieuwe algoritme kan helpen identificeren welke misleidende informatie er breed circuleert, of zelfs varianten ontdekken van berichten die eerder al gefactcheckt zijn.
Vooral in India, waar WhatsApp een van de populairste communicatiekanalen is, kan dat een grote impact hebben. In het verleden werden al nietsvermoedende automobilisten die door plattelandsdorpen reden gelyncht omdat goedgelovige WhatsApp-gebruikers opgehitst waren door verzonnen berichten over ‘kinderontvoerders in busjes’. Het Oxford-algoritme zou daarbij kunnen ingrijpen en ervoor zorgen dat dergelijke virale misinformatie sneller bij factcheckers terechtkomt – en hun factchecks sneller bij het misleide publiek.
Filters op basis van artificiële intelligentie maken soms domme fouten. Ook in de spamfilter van je e-mail zit geregeld een belangrijk bericht dat er eigenlijk niet thuishoort. Facebook, Instagram, Twitter en TikTok hebben miljarden gebruikers over de hele wereld. Het menselijk screenen van alle berichten die die gebruikers online plaatsen, is onbegonnen werk. Daarenboven levert het ook heel veel extra werk op wanneer gebruikers een klacht indienen over hun verwijderde berichten – al dan niet terecht. Los van de vals positieve en vals negatieve gevallen, kunnen de socialemediabedrijven dus simpelweg niet zonder filters als ze hun platformen leefbaar willen houden en hun eigen regels willen toepassen.
Fout opgemerkt of meer nieuws? Meld het hier