Nobelprijswinnaar Geoffrey Hinton, ‘peetvader’ van artificiële intelligentie: ‘We zouden erg bang moeten zijn’

AI-pionier Geoffrey Hinton op een conferentie in Toronto op 19 juni 2024. © ZUMA Press

De Nobelprijs Natuurkunde ging dinsdag naar John Hopfield en Geoffrey Hinton. Die twee wetenschappers waren de grondleggers van de artificiële neurale netwerken, waarop artificiële intelligentietoepassingen vandaag gebaseerd zijn.

Hopfield en Hinton kregen de Nobelprijs voor hun ontdekkingen en uitvindingen die machinaal leren met kunstmatige neurale netwerken mogelijk maken. In de jaren 80 ontwikkelden ze software en computerprogramma’s, waarmee het menselijk hersennetwerk kon worden nagebootst. De programma’s konden patronen onthouden en herstellen. Hinton maakte gebruik van de ontdekkingen van Hopfield om een nieuw netwerk op te bouwen, waarbij de mate van associaties nog verhoogd werd.  

Sinds de jaren zeventig doet Geoffrey Hinton onderzoek naar neurale netwerken, die de basis vormen van artificiële intelligentie (AI). Hij bracht vele jaren door aan de Universiteit van Toronto, waar hij nog altijd woont. In 2013 trad hij in dienst bij Google en hielp hij de technologie door te breken. Veel van zijn voormalige studenten zijn nu vooraanstaande AI-ontwikkelaars bij grote technologiebedrijven of start-ups zoals OpenAI, het bedrijf achter de populaire chatrobot ChatGPT.

Vorig jaar nam Hinton onverwachts ontslag in Silicon Valley. Vandaag denkt hij dat een monster heeft gecreëerd.

Waarom hebt u vorig jaar ontslag genomen?

Hinton: Ik had een openbaring.

Wat werd u duidelijk?

Hinton: Officieel ging ik met pensioen omdat ik 75 werd en niet meer zo goed kon programmeren. Maar ik zag ook de extreme risico’s van generatieve AI, met name het enorme tempo waarin de technologie wordt ontwikkeld en de hevige concurrentie op het gebied van artificiële. Met de introductie van gespreksrobots zoals ChatGPT kwamen we plots in een stadium terecht waarvan ik altijd had gedacht dat we het pas over vijftig jaar zouden bereiken. En geen enkel bedrijf, noch Google noch Microsoft, houdt technologie tegen, zelfs als die technologie onverantwoord en oncontroleerbaar is. Sindsdien waarschuw ik voor de gevolgen van AI.

Herinnert u zich het moment waarop u dacht: het gaat de verkeerde kant op?

Hinton: Toen die chatbots opkwamen, werd ik me ervan bewust dat AI een directe bedreiging voor de mensheid vormt. Miljoenen banen kunnen verloren gaan, verkiezingen kunnen worden gecompromitteerd met vervalste video’s. Dit soort AI maakt het mogelijk om veel betere cyberaanvallen uit te voeren en uiterst efficiënte, kwaadaardige virussen voor biologische oorlogsvoering te ontwikkelen.

Wereldmachten zullen AI gebruiken om autonome, dodelijke wapensystemen te ontwikkelen.

Waar komt uw pessimisme vandaan?

Hinton: Artificiële intelligentie die beelden, taal en tekst kan begrijpen en genereren, zal alles veranderen. We kunnen binnenkort allemaal een huisarts raadplegen die al 100 miljoen patiënten en hun ziektes heeft gezien, die alles onthoudt en ons volledige genoom kent. Dat is heel goed. Maar wereldmachten zoals de Verenigde Staten, Rusland, China, het Verenigd Koninkrijk en Israël zullen AI ook gebruiken om autonome, dodelijke wapensystemen te ontwikkelen.

AI wordt vaak gezien als een oplossing voor bijna alle obstakels waar de mensheid mee wordt geconfronteerd, van zelfrijdende auto’s tot klimaatverandering.

Hinton: Dat voorspelden we al in de jaren tachtig. Toen lachten ze ons uit. Vandaag moeten we begrijpen dat moderne AI een veel betere vorm van intelligentie is dan de onze. Ze is ons nu al op veel gebieden ver vooruit.

Kunt u dat bewijzen?

Hinton: Hoe goed bent u in wiskunde?

Eerder basis dan gevorderd.

Hinton: Dan zal ik u de details besparen. Eenvoudig gezegd zit het zo: in mijn laatste jaren bij Google probeerden we grote taalmodellen te bouwen met analoge technologie. We verbonden massa’s elektrische weerstanden om het menselijk brein met zijn neuronen en synapsen na te bootsen. Dat deden we om energie te besparen. Het menselijk brein verbruikt ongeveer 30 watt om te functioneren. Normaal gesproken worden grote neurale netwerken getraind op digitale infrastructuur, zoals grafische processors, om de processen in het menselijk brein na te bootsen. Maar dat vergt honderd- tot duizendmaal meer energie: we spreken over megawatt.

Heeft uw analoge methode gewerkt?

Hinton: Ze is inderdaad veel energiezuiniger. Maar er is één groot nadeel.

En dat is?

Hinton: Analoge neurale netwerken kun je, net zoals mensen, niet klonen. Wanneer energie door de kunstmatige neuronen stroomt, ontstaan er onvermijdelijk kleine schommelingen. Daardoor komt er bij twee identieke operaties uiteindelijk iets licht anders uit. Bij neurale netwerken op digitale hardware is het resultaat altijd hetzelfde. Dat maakt ze reproduceerbaar – en krachtiger.

Waarom is dat zo belangrijk?

Hinton: Een AI-robot kan geen kopje koffie tien keer sneller naar zijn mond brengen alleen omdat er tien identieke kopieën van hem zijn. Maar die tien kopieën kunnen wel tegelijkertijd van tien verschillende ­experimenten leren. Als het om niet-fysieke zaken gaat, zoals kennis, is kloonbaarheid een enorm voordeel. Eén AI-systeem kan bijvoorbeeld één deel van het internet leren, terwijl een ander een ander deel leert. Uiteindelijk delen ze simpelweg hun kennis. ChatGPT weet ­duizendmaal meer dan een mens ooit kan leren. Het is in geen enkel vakgebied ­perfect, maar het is een ­redelijke expert in alles – hoewel het af en toe dingen verzint.

‘Je kunt ChatGPT vergelijken met een buitenaards wezen dat hier net is geland en meteen heel goed Engels kan spreken.’

Dat is precies wat mensen fascineert aan de technologie.

Hinton: We zouden erg bang moeten zijn. Je kunt ChatGPT vergelijken met een buitenaards wezen dat hier net is geland en meteen heel goed Engels kan spreken. Als we buitenaardse wezens zouden ontmoeten, zouden we terecht bang zijn. Maar als het om AI gaat, zeggen mensen zoals Yann LeCun, hoofd AI van Meta, dat we alleen dingen bouwen die doen wat wij willen, simpelweg omdat wij ze gemaakt hebben.

AI-pionier Geoffrey Hinton staat backstage op een conferentie in Toronto op 19 juni 2024. © ZUMA Press

Dat argument wordt door veel grote technologiebedrijven gebruikt. Geen zorgen, uiteindelijk staat er altijd een mens aan het roer.

Hinton: Er staat overduidelijk geen mens aan het roer. Wat de bedrijven bedoelen, is dat er een paar menselijke generaals zullen zijn die in de toekomst bijvoorbeeld zeggen: ja, het is oké om mensen te doden. En eigenlijk kunnen de bedrijven dat niet eens garanderen.

Pardon?

Hinton: Er zijn veel redenen om aan te nemen dat AI uit de hand kan lopen. Ik zal er twee noemen. De eerste reden is: om artificiële intelligentie efficiënter te maken, zullen ontwikkelaars AI uiteindelijk de vrijheid geven om zelf subdoelen te definiëren om een hoger, door mensen gesteld doel te bereiken. Als je bijvoorbeeld van de VS naar Europa wilt reizen, heb je een luchthaven nodig. De luchthaven bereiken is dan een subdoel op weg naar je hogere doel. Als je AI de mogelijkheid geeft om zinvolle subdoelen te maken, zal het snel beseffen dat het subdoel om meer controle te krijgen bij bijna alles helpt.

‘Een superintelligentie zal begrijpen dat ze meer controle moet krijgen om zo goed mogelijk te doen wat de mensen van haar willen. En de meeste controle krijgt ze door de mens uit te schakelen.’

En zo wordt het almaar machtiger.

Hinton: De superintelligentie zal begrijpen dat ze meer controle moet krijgen om zo goed mogelijk te doen wat de mensen van haar willen. En de meeste controle krijgt ze door de mens uit te schakelen.

Wat is de tweede reden waarom u zich zorgen maakt over de beheersbaarheid van AI?

Hinton: Dat we niet één, maar veel superintelligenties zullen hebben.

Waarom verliezen we dan de controle? De AI-systemen zouden elkaar toch in toom kunnen houden – checks-and-balances, zoals we dat ook bij de scheiding der machten kennen?

Hinton: Stel je voor dat we op een dag een Google-AI hebben, een Microsoft-AI, verschillende Chinese AI’s. En stel je vervolgens voor dat een van die intelligenties op een gegeven moment het gevoel krijgt dat er meer kopieën van zichzelf zouden moeten zijn, en minder kopieën van de anderen. Hoe doet ze dat? Ze zal proberen zo veel mogelijk datacenters van de andere AI’s over te nemen om meer te leren, te groeien en machtiger te worden.

Het idee van een AI met een eigen behoefte grenst toch aan waanzin? Op dit moment voeren die machines alleen de opdrachten uit die mensen ze hebben gegeven.

Hinton: Is dat wel zo? Ik denk dat het afhangt van hoe we behoefte definiëren. Als je aan AlphaZero, de schaak-AI van Google, zou vragen of ze wil winnen van haar tegenstander, dan is het antwoord duidelijk: natuurlijk.

Dat is geen behoefte. Dat is het doel van de code.

Hinton: Een doel en een behoefte zijn uiteindelijk ­hetzelfde: het AI-systeem heeft een huidige toestand en een ­toestand die het wil bereiken. En om dat te doen, moet het obstakels overwinnen. Ik zou dat een be­hoefte noemen.

Maar zo’n systeem besluit toch niet meteen nadat het wordt aangezet: vandaag wil ik over de wereld regeren?

Hinton: Stel dat ik een superintelligentie ben en voor Microsoft werk. Dan weet ik, of zal ik binnenkort met grote zekerheid weten, dat er concurrentie is van Google en zijn superintelligentie. En ik weet dat ik met meer data en datacenters meer kan leren, dat ik dus efficiënter en krachtiger ben. En precies dat verlangen mijn programmeurs van me. Daarvoor belonen ze me door almaar meer kopieën van mij te maken. Dus zal ik beginnen in die richting te werken.

Teams van superintelligenties zullen alle eigenschappen krijgen die we vandaag de dag zien bij strijdende groepen chimpansees.

Dat klinkt als donkere sciencefiction.

Hinton: Uiteindelijk zal zo’n team van superintelligenties alle eigenschappen krijgen die we vandaag de dag zien bij strijdende groepen chimpansees: een zeer sterke loyaliteit tegenover de eigen groep, een sterke competitie met de andere groep. En waarschijnlijk houden ze ervan sterke leiders te hebben.

Mustafa Suleyman, de nieuwe AI-baas van Microsoft, ziet nog een andere rode lijn. Hij zegt dat we met AI geen gereedschap ontwikkelen, maar een nieuwe soort waarin zowel het goede als het slechte van de mensheid doordringt. Zodra we AI toestaan zichzelf te programmeren, wordt het gevaarlijk.

Hinton: Dat lijkt zeker mogelijk. Uiteindelijk zou dat het einde van de mensheid kunnen betekenen.

Hoe ver is zo’n mensachtige AI nog van ons verwijderd?

Hinton: We zijn er nog niet, maar het tempo waarin alles evolueert is enorm. Waarschijnlijk over 5 à 20 jaar. Ik dacht altijd dat ik het niet meer zou meemaken. Maar ik heb me al eens vergist.

ChatGPT begrijpt waarom een composthoop werkt als een atoombom. En die analogie is niet op internet te vinden.

Is dat wat u een superintelligentie zou noemen?

Hinton: Sommige mensen denken dat artificiële intelligentie beperkt is omdat ze alleen getraind is met internetdata. Dat is onzin. Superintelligente AI zal binnenkort dingen zien die mensen nooit hebben gezien. Ze zal vooral in staat zijn analogieën te maken, waarschijnlijk betere dan wij. Dat begreep ik voor het eerst toen ik ChatGPT vroeg waarom een composthoop werkt als een atoombom.

Pardon?

Hinton: Naarmate een composthoop warmer wordt, produceert hij steeds sneller warmte. Als een atoombom meer neutronen produceert, genereert ze steeds sneller neutronen. De hoeveelheid energie is totaal anders, maar de onderliggende logica is dezelfde: een kettingreactie. ChatGPT begreep dat. De vraag was alleen: waar kwam die kennis vandaan? Is die analogie ergens op internet te vinden?

Hebt u de bron van die analogie gevonden?

Hinton: Ik vroeg aan iemand om er een Google-zoekopdracht naar uit te voeren, en hij vond de analogie niet terug op internet. En ik vertrouw hem als hij dat zegt. Die persoon was Sergej Brin, de oprichter van Google.

Wat leidt u daaruit af?

Hinton: De huidige AI-systemen zijn extreem goed in het vinden van analogieën. Dat is het enorme verschil met AI van de vorige eeuw. Toen probeerde men logisch denken te modelleren. Vandaag staat leren centraal. Maar wat de machine leert, is geen verzameling logische regels. Wat ze leert, is uiteindelijk een intuïtieve metriek.

AI heeft een buikgevoel?

Hinton: Het is als bij je huisarts, die naar je kijkt en nog voor hij je heeft onderzocht zegt: ‘Je hebt een oogontsteking.’ Of stel dat je helemaal niets van voetbal kent en je ziet een amateurwedstrijd en een wedstrijd met Lionel Messi. Je zou geen idee hebben of Messi beter speelt dan de anderen. Maar zodra je de basisregels van voetbal begrijpt, heb je niet veel meer nodig om te zien dat Messi iets heeft wat anderen niet hebben.

We zullen nooit in staat zijn uit te leggen waarom AI bepaalde beslissingen neemt.

Als AI zover is, dan kunnen we haar handelingen niet meer voorspellen.

Hinton: Neem een blad dat van een boom valt. We weten allemaal ongeveer wat er gebeurt. Het valt in kleine bochten naar de grond. Maar niemand kan precies zeggen waar dat blad zal landen, of op welke kant. Daar zijn te veel variabelen voor: een windstoot, een ander blad, een hond, wat dan ook. Zo gaat het ook met moderne AI: ze weegt haar antwoorden op basis van analogieën die ze maakt. Er zijn geen regels. Net zoals we nooit kunnen zeggen waar het blad zal landen, zullen we nooit in staat zijn uit te leggen waarom AI bepaalde beslissingen neemt.

Daarmee zou elke poging om de technologie te reguleren onmogelijk zijn. Hoe kunnen we iets beheersen als we niet weten hoe het werkt?

Hinton: We weten ook niet precies hoe mensen functioneren. Toch hebben we regels, wetten, maatschappelijke normen. Zoiets hebben we ook nodig voor AI. De Europese Unie is begonnen met regulering door middel van haar AI-wetgeving, en Californië werkt aan een eigen AI-wet. Uiteindelijk zal het net zo gaan als met de chemische industrie. Tegenwoordig weten we hoeveel schade die sector heeft aangericht aan het milieu. Maar het duurde tot er ongelukken en rampen waren gebeurd, zoals met het insecticide DDT, voordat er strikte wetten kwamen.

Met het verschil dat chemicaliën zichzelf niet kunnen ontwikkelen of reproduceren.

Hinton: Dat klopt. Bij AI gaat het om een heel ander niveau van gevaar.

Nogmaals: hoeveel tijd hebben we nog?

Hinton: Het ene deel van de wetenschap zegt dat er 99,9 procent kans is op een ramp, het andere deel zegt dat het risico nul is. Dat geeft een gemiddelde van 50 procent. Ik zou niet in een taxi stappen als ik wist dat taxiritten in de helft van de gevallen een dodelijke afloop kennen.

Misschien moeten we het onderzoek naar superintelligentie verbieden. Maar we weten allemaal dat dat niet zal gebeuren.

Is de ontwikkeling te stoppen?

Hinton: Natuurlijk kunnen we zeggen: laten we onderzoek naar superintelligentie gewoon verbieden. En misschien zouden we dat moeten doen. Maar we weten allemaal dat dat niet zal gebeuren. De concurrentie tussen techbedrijven en tussen regeringen is enorm. Niemand zal aan de noodrem trekken.

We zouden een internationale toezichthouder kunnen oprichten, onder de paraplu van de Verenigde Naties.

Hinton: De politieke partijen in de VS kunnen het zelfs niet eens worden over wie de laatste verkiezingen heeft gewonnen. Zo’n idee lijkt me behoorlijk kansloos.

Hebt u er spijt van dat u uw leven aan de ontwikkeling van AI hebt gewijd?

Hinton: Niet echt.

Waarom niet? U gelooft toch dat u een monster hebt gecreëerd?

Hinton: Er zijn twee soorten spijt. De eerste is wanneer je iets doet waarvan je de hele tijd weet dat je het eigenlijk niet zou moeten doen. Zoals wanneer je gaat speculeren met de pensioenfondsen van je werknemers. Zelfs als je van plan bent om de winst terug te geven, was het nooit juiste beslissing. Dan heb je spijt als het misgaat. En dan zijn er dingen waarvan je dacht dat ze goed waren, maar die achteraf verschrikkelijk blijken te zijn. De gevolgen waren onvoorspelbaar, de kennis ontbrak gewoon. Dat is bij mij het geval. Ik besefte pas in 2023 hoe snel de technologie zich ontwikkelde, hoe catastrofaal het misschien zal worden.

Voelt u zich schuldig?

Hinton: Ik heb niet echt een schuldgevoel. Bovendien, als ik helemaal niet had bestaan, zou de ontwikkeling van AI misschien met een week vertraagd zijn. Nee, ik denk dat ik op een redelijke manier heb gehandeld.

© Der Spiegel

Bio Geoffrey Hinton

1947
Geboren in Londen, VK.

1970
Studeert af in de experimentele psychologie (King’s College, Londen).

1978
Doctoreert in de artificiële intelligentie (University of Edinburgh).

1986
Coauteur van een veel geciteerd artikel dat het backpropagation-algoritme voor het trainen van meerlagige neurale netwerken populariseerde.

2013
Begint te werken voor Google LLC.

2018
Ontvangt samen met Yoshua Bengio en Yann LeCun de Turingprijs, de ‘Nobelprijs voor informatica’, voor hun onderzoek naar deep learning.

2023
Vertrekt bij Google om vrijer te kunnen spreken over de bedreigingen die AI met zich meebrengt.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content