Factcheck: nepvideo met speech van Biden over ufo’s maakt gebruik van nagebootste stem

Brecht Castel
Brecht Castel Journalist en factchecker

Op Twitter en TikTok doet een video de ronde van Joe Biden die een persconferentie geeft over ufo’s boven het Amerikaanse grondgebied. De video is nep. De stem van de Amerikaanse president werd nagebootst. Mogelijk werd daarbij gebruik gemaakt van artificiële intelligentie.

Deze factcheck is uitgevoerd op basis van de beschikbare informatie op de datum van publicatie. Lees hier meer over hoe we werken.

Midden februari duiken op Twitter en TikTok verschillende video’s op waarin we de Amerikaanse president Joe Biden uitspraken horen doen over ufo’s die zouden geland zijn (hier, hier, hier en hier gearchiveerd). Die video’s werden samen 140.000 keer bekeken. 

We zien Joe Biden in een officiële setting en horen hem zeggen: ‘Dames en heren, als opperbevelhebber van de Amerikaanse troepen ben ik hier om u te informeren dat een aantal ongeïdentificeerde vliegende objecten (ufo’s, nvdr.) zijn verschenen op meerdere plekken boven ons grondgebied. Hun exacte oorsprong moet nog achterhaald worden, maar de FBI informeerde me dat het zeer waarschijnlijk gaat over buitenaardse bezoekers. Ik adviseer de Amerikaanse bevolking om kalm te blijven, niet te panikeren en te wachten op verdere aankondigingen. We zullen deze bedreiging overwinnen met vertrouwen en waakzaamheid.’ 

Wat opvalt aan de video, is dat het geluid niet synchroon loopt met het beeld: de lippen van de president komen niet overeen met de tekst die we horen. Veel socialemediagebruikers lachen de beelden dan ook meteen weg als fake, al zijn er ook die twijfelen. 

Bij de video’s op Twitter wordt verwezen naar Project Blue Beam. Dat is een complottheorie die al bestaat sinds 1994 en stelt dat de Amerikaanse ruimtevaartorganisatie NASA en de Verenigde Naties bezig zijn met een zeer geavanceerde technologie. Met behulp van reusachtige laserprojecties zouden hyperrealistische buitenaardse ruimtevaartuigen in de lucht worden geprojecteerd om de illusie te wekken dat er een invasie aan de gang is. Zo zou een nieuwe religie en wereldorde op poten worden gezet. 

We laden de video op in de deepfakescanner van deepware.ai, maar dat computersysteem stelt dat het geen deepfake detecteert.

Mogelijk komt dat omdat de beelden niet met artificiële intelligentie zijn gemanipuleerd. Het is niet zo dat de lippen van Biden mooi de audio volgen. We doen een omgekeerde zoekactie met een screenshot van de video.

Zo komen we uit bij de originele speech waarvan de virale video een fragment toont. Op 9 november 2022, net na de Amerikaanse tussentijdse verkiezingen, gaf Biden een persconferentie. De beelden vinden we onder meer op de Facebook– en YouTube-pagina van het Witte Huis. 

De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."

Vanaf 4:11 komt de persconferentie (links) qua beeld perfect overeen met het fragment op sociale media (rechts).

Op de echte beelden heeft Biden het niet over buitenaards leven: ‘We hebben te maken met wereldwijde inflatie als gevolg van de pandemie en Poetins oorlog in Oekraïne. We gaan er ook beter mee om dan de meeste andere geavanceerde landen in de wereld. We verlagen de gasprijzen…’

Toch lijkt de stem in de virale video sterk op die van Biden. Wellicht werd hiervoor een stemvervormer op basis van artificiële intelligentie (AI) gebruikt. Zo kun je met het programma voice.ai je stem laten lijken op die van Biden. Dat wordt bijvoorbeeld geïllustreerd in deze video.

De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."

Het is niet de eerste keer dat een AI-stemvervormer wordt gebruikt om Biden woorden in de mond te leggen. Zo schrijft Fortune dat een speech die Biden gaf op 25 januari over tanks werd bewerkt zodat het lijkt alsof hij transgenders aanvalt. De bewerkte video werd honderdduizenden keren bekeken op sociale media. 

Digitale forensische experts zeggen aan Fortune dat de video is gemaakt met behulp van een nieuwe generatie AI-tools, waarmee iedereen snel audio kan genereren die de stem van een persoon simuleert met een paar klikken. En hoewel de Biden-clip op sociale media de meeste gebruikers deze keer niet voor de gek heeft kunnen houden, laat de clip zien hoe gemakkelijk het nu is voor mensen om hatelijke en met desinformatie gevulde deepfake-video’s te genereren die echte schade kunnen aanrichten.

Een van de aanbieders van zo’n tool, ElevenLabs, lanceerde een beta-versie van zijn tool, maar stelde snel ‘een toenemend aantal gevallen van misbruik van stemnabootsing’ vast.

De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."

Biden kreeg in 2021 overigens eens een vraag over ufo’s van een  journalist, maar hij lachte die vraag toen weg.

De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."

Conclusie

In de video die op sociale media circuleert, horen we geen echte speech van Joe Biden. Het gaat om nabootsing van Bidens stem. Daarvoor werd mogelijk gebruik gemaakt van een stemvervormer op basis van artificiële intelligentie. In het originele videofragment praat Biden over maatregelen tegen inflatie en niet over ufo’s. We beoordelen de de audio als gemanipuleerd en daarom onwaar.*

Bronnen

In het artikel vindt u links naar alle gebruikte bronnen.

Alle bronnen werden laatst geraadpleegd op 17 februari 2023.

*Na publicatie werd de conclusie aangepast: in een eerdere versie stond er dat we de ‘beelden als gemanipuleerd’ beoordelen, dat moest natuurlijk ‘de audio’ zijn.

Partner Content