Guido Van Steendam

‘Zinvol omgaan met AI vereist meer dan angst of bewondering’

Guido Van Steendam Techniekfilosoof

‘Het zijn niet de machines die steeds meer op mensen lijken, maar mensen die steeds meer op machines beginnen lijken’, schrijft Guido Van Steendam. Hij staat stil bij de evolutie die ook AI-pionier Geoffrey Hinton in zijn denken over artificiële denken heeft gemaakt.

We waren beter af geweest zonder AI, zei Geoffrey Hinton in 2023. “AI is het risico niet waard, maar het is te laat om het te stoppen.” Een paar maand eerder was Hinton nog een overtuigd pionier van AI, waarvoor hij op 10 december 2024 de Nobelprijs in ontvangst nam.

Vandaag is Hinton bezig met de vraag hoe we zinvol kunnen omgaan met AI. Hij blijft hierbij sterk beïnvloed door het schokkend inzicht dat hem plots tot criticus van AI maakte.

Neurale netwerken

Het onderzoeksveld van Artificiële Intelligentie werd in 1956 gelanceerd met als ambitie een machine te ontwikkelen die de menselijke intelligentie nabootst. Zoals toen gebruikelijk was, vonden de onderzoekers dat menselijk denken bestond uit logisch redeneren. Ze wilden alle elementen van denken systematisch in kaart brengen als een systeem van symbolen en regels.

De successen bleven beperkt, en een nieuwe aanpak liet zich inspireren door het feit dat dieren problemen kunnen oplossen zonder te werken met symbolen en regels, maar door te leren van ervaringen. Het gedrag van dieren wordt beïnvloed door de sterkte van verbindingen tussen betrokken zenuwcellen (neuronen) in hun hersenen en lichaam. De sterkte van deze verbindingen verandert op basis van ervaringen die dieren opdoen. Tijdens het leerproces wordt de structuur van deze “neurale netwerken” aangepast. Dieren kunnen hierbij meer complexe vaardigheden ontwikkelen en flexibeler reageren op hun omgeving, wanneer de neuronen van hun netwerk op een groter aantal plaatsen verbindingen kunnen maken.

Dit inzicht leidde tot de ontwikkeling van artificiële neurale netwerken (ANNs) in de AI-wereld. Neuronen worden daar computergestuurde berekeningen. Connecties worden parameters.

Intelligenter dan mensen?

Hinton speelde een sleutelrol in de ontwikkeling van neurale netwerken. In 1986 introduceerde hij ‘backpropagation’ waardoor ANNs op een efficiënte manier konden bijleren. ANN’s hadden toen maximum een paar duizend connecties, het menselijk brein naar schatting 100 biljoen. De afstand tot de mens bleef volgens Hinton onoverbrugbaar groot, ook toen het aantal connecties in de jaren 2010, met de opkomst van ‘Deep Learning’ en krachtige hardware, steeg tot enkele miljoenen — en in 2017 zelfs tot 231 miljoen toen Google de Transformer-architectuur lanceerde.

Hinton veranderde van mening nadat op 14 maart 2023 een nieuwe versie van ChatGPT (GPT-4) werd uitgebracht,met een geschat aantal connecties van 500 miljard. Hoewel dit nog altijd minder is dan de mens, vond Hinton het angstwekkend dat ANNs zo snel naderden, dat terwijl ANNs nu al efficiënter zijn dan de mens in het verwerven en doorgeven van kennis. ANNs kunnen met duizenden tegelijk dag en nacht kennis vergaren over alle mogelijke topics, en ze kunnen die kennis onderling uitwisselen zonder moeizaam leerproces.

Begin mei 2023 stapt Hinton op bij Google, om vrijuit te kunnen nadenken en spreken over de risico’s van AI. Hij wilde helpen redden wat er te redden viel.

Een belangrijk verschil tussen mensen en AI

Hinton heeft gelijk dat we zinvol met AI moeten leren omgaan, maar hij vergist zich in de reden waarom. Hij vreest dat er problemen komen omdat ANNs met hun stijgend aantal connecties binnenkort de intelligentie van de mens zullen evenaren en overtreffen. De connecties die mensen maken zijn echter radicaal verschillend van die van zelflerende machines. Als men bij machines spreekt over leren, kennis of informatie, hebben deze termen een andere betekenis dan bij mensen.

Als mensen bijleren wordt dit biologisch opgeslagen in veranderingen in de connecties tussen neuronen en de sterkte van die connecties. Dit is zo voor alle vormen van leren, zoals verwerven van nieuwe kennis of vaardigheden, of uitzoeken wat men nu zelf wil bereiken. Deze vormen van leren gebeuren bij mensen niet in een theoretisch vacuüm, maar binnen een lichamelijke betrokkenheid in de wereld. Als mensen leren houden ze bv. ook rekening met wat ze plezierig vinden, met afschuw voor oorlog, respect voor anderen, of bewondering voor de natuur. Wat mensen leren krijgt verder vorm in hun zelfbeeld, hun houding en handelen en de manier waarop ze willen bijdragen tot een betere wereld. Mensen laten zich ook bevragen en blijven kritisch tegenover wat zijzelf en anderen zeggen en doen.

Bij zelflerende machines gaat het anders. Hun “connecties” zijn verbindingen tussen mathematische berekeningen die worden uitgevoerd in computernetwerken, die draaien in massale datacentra. De architectuur van het ANN bepaalt hoe de koppeling en informatiestromen tussen de computers worden geregeld. Deze machines leren op basis van de digitale input die ze krijgen en niet op basis van de uitdagingen in de reële wereld waarin we leven. Hun wereld is beperkt tot de mathematische verwerkingen binnen de computersystemen waarin ze zijn ondergebracht. Hoewel geavanceerde AI machines mooie zinnen kunnen maken in een natuurlijke taal, begrijpen ze niet wat ze zeggen. Ze begrijpen de wereld niet.

Leven als machines

Als intelligente machines al een bedreiging zouden zijn voor de mens, dan is dat niet omdat machines alsmaar meer worden zoals mensen (want dat doen ze niet), maar om mensen alsmaar meer leven zoals machines. Mensen handelen vaak op “automatische piloot”. We gebruiken routines, strategieën, instrumenten, verwoordingen en ideeën, en onze directe bekommernis is te doen wat nu nodig is.

Toch kunnen we onze routines ook vanop een afstand bekijken, ze bevragen en ze herdenken als ze niet overeenkomen met wat we echt willen doen. Dat hoort bij ons leerproces als mensen. Maar we kennen ook de verleiding om ons comfortabel te nestelen in een leven zonder verdere vragen, om onze ogen te sluiten voor de uitdagingen van het echte leven, en om onze aandacht te laten opslorpen door kleinere of grote verslavingen en bezighouderijen, zoals gedachteloos scrollen. Zelflerende AI-machines verleiden ons om te leven zoals zij: routinegedreven, ver verwijderd van de diepgang van een menselijk leven.

Als de samenleving beslissingen wil nemen over AI, moet men concreter zijn dan algemene vragen of “AI” nu goed is of slecht, gevaarlijk of heilzaam. Zinvol omgaan met AI vereist meer dan angst of bewondering: het vraagt om inzicht, nuance en keuzes die passen bij hoe we als echte mensen in de wereld vol uitdagingen willen leven.

Guido Van Steendam is prof. Em. KU Leuven, techniekfilosoof en hij was coördinator van internationaal EU project over ethiek van informatie-technologie. Hij is lid van de christelijk geïnspireerde denktank Logia.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content