AI-pionier Fei-Fei Li: ‘De overheid moet massaal investeren in artificiële intelligentie’
‘De ChatGPT-mogelijkheden zijn fenomenaal’, zegt professor Fei-Fei Li van Stanford University. Maar de AI-experte waarschuwt ook voor misbruik van de technologie.
Wie is Fei-Fei Li?
Fei-Fei Li doet al meer dan twintig jaar onderzoek naar artificiële intelligentie (AI). Het ImageNet-project dat ze ontwikkelde, begon in 2009 met het datatrainen van algoritmen en leverde een belangrijke bijdrage aan de ontwikkeling van moderne AI-systemen zoals ChatGPT.
U bent een van de pioniers van artificiële intelligentie. De technologie brak in 2023 door met ChatGPT, dat voor de meeste mensen uit het niets leek te komen. Was u ook verrast door de snelheid van de ontwikkeling?
Fei-Fei Li: Experts in de techwereld merken al een tijdje dat de dingen opeens heel snel gaan. In 2017 beschreven Google-wetenschappers voor het eerst wat Large Language Models (LLM’s), waarop ChatGPT ook is gebaseerd, kunnen. Toen begrepen we het al: AI zou een technologie kunnen worden die mensen superkrachten geeft. Het zou kunnen helpen om kanker te bestrijden, klimaatverandering tegen te gaan en de biodiversiteit op aarde te behouden. Maar had ik daarom het ongelooflijke succes van ChatGPT verwacht? Ik denk dat niemand dat had kunnen voorspellen.
In Silicon Valley wordt elke nieuwe ontwikkeling gevierd als een wereldschokkend ‘next big thing‘. Is ChatGPT echt zo’n technologisch keerpunt?
Li: Absoluut. Tenminste voor AI. Mogelijk ook voor de mensheid. Het is in ieder geval geen hype die voorbij zal gaan. De mogelijkheden van die technologie zijn fenomenaal. AI zal binnenkort overal zijn: in elk bedrijf, in elk leven.
Wat is precies het grote verschil met eerdere AI-modellen?
Li: Deze technologie verandert AI in een massatoepassing die niet langer alleen door specialisten kan worden gebruikt, maar potentieel door iedereen. Of je nu een ingenieur bent met een technische vraag, een student die een essay schrijft of een reisbureau dat een rondreis samenstelt: je krijgt meestal een zinnig antwoord. Maar de technologie is nog niet feilloos. Soms hallucineert het.
We moeten ernaar streven om AI zo te ontwikkelen dat het mensen ondersteunt.
Zó noemen experts het als AI-systemen verkeerde conclusies trekken uit gegevens, feiten en fictie door elkaar halen en een halfbakken mengsel presenteren als de waarheid.
Li: Daar moeten we nog aan werken. Maar al bij al heeft de technologie zeer krachtige mogelijkheden.
‘Niet volledig ontwikkeld’ en ‘zeer krachtig’ klinkt als een gevaarlijke combinatie.
Li: We moeten mensen centraal stellen bij AI. Dit betekent dat we het niet alleen over de technologie zelf moeten hebben, maar ook over de ethische en politieke gevolgen. Daarom hebben we het Institute for Human-Centered Artificial Intelligence opgericht aan de Stanford University.
Intussen is er een ware cultuuroorlog ontstaan in de techwereld: het ene kamp ziet artificiële intelligentie als een redder en wil het zo snel mogelijk ontwikkelen. De andere kant ziet het alsmaar meer als een bedreiging voor de mensheid. Waarom zijn zelfs AI-experts zo verdeeld in hun oordeel over de technologie?
Li: Er woedt op dit moment een heel stevig debat. Ook omdat het publiek wakker is geworden en heel aandachtig meekijkt. Maar niet de hele AI-gemeenschap, die zowel academici als ingenieurs, productmanagers en vele andere mensen omvat, heeft zulke extreme meningen.
Aan welke kant sta jij?
Li: Ik behoor niet tot degenen die hopen op een gigantische techno-utopie, noch tot degenen die geloven dat ons bestaan al wordt bedreigd. Ik geloof dat de mensheid regelmatig nieuwe baanbrekende technologieën uitvindt. En elk hulpmiddel dat mensen creëren kan zowel in het voordeel als in het nadeel gebruikt worden. Dat geldt ook voor AI.
Als we AI volledig overlaten aan particuliere bedrijven, dan laten we ook de toekomst van de mensheid over aan particuliere bedrijven.
Recentelijk nog hebben niet alleen samenzweringstheoretici, maar ook een aantal prominente AI-experts, zoals Google’s AI-pionier Geoffrey Hinton, gewaarschuwd voor de gevaren voor de mensheid.
Li: Een grote angst is dat AI op een dag mensen op veel gebieden kan vervangen. We moeten ernaar streven om AI zo te ontwikkelen dat het mensen ondersteunt. Neem nu de gezondheidszorg: AI kan artsen helpen bij het stellen van diagnoses, farmaceutische bedrijven bij het ontwikkelen van nieuwe medicijnen en patiënten bij hun herstel. Maar we moeten wel de juiste richtlijnen opstellen. Als wetenschapper ben ik hiervoor verantwoordelijk.
Zou de verantwoordelijkheid niet in de eerste plaats bij politici moeten liggen? Vorige week stemde het EU-parlement in met de ‘AI Act‘, die voorziet in strengere regels voor risicovolle toepassingen, zoals het gebruik van AI in kritieke infrastructuur. De VS daarentegen is tot nu toe terughoudend geweest om zich met de technologiebedrijven te bemoeien.
Li: Politici worden nog maar net wakker en proberen er nu zo snel mogelijk achter te komen wat verstandige richtlijnen zouden zijn.
Hebben politici volgens u begrepen hoe fundamenteel AI alle aspecten van het leven, de maatschappij en de economie zal veranderen?
Li: Helaas niet helemaal. Maar dankzij ChatGPT zijn toppolitici in Washington en Brussel nu in ieder geval veel meer geïnteresseerd in het onderwerp.
U hebt de afgelopen jaren ook de Amerikaanse president Joe Biden geadviseerd. Wat raadt u hem aan?
Li: De overheid moet massaal investeren in AI. Ik heb dit heel nadrukkelijk tegen president Biden en het Amerikaanse Congres gezegd. Tot nu toe hebben particuliere bedrijven de ontwikkeling en dus ook de discussie van AI gedomineerd. De overheid moet niet alleen investeren in onderzoek, in de cloud en in dataopslag. Ze moet ook een “moonshot”-mentaliteit aan de dag leggen, d.w.z. investeren in nationale instituten en personeel, zoals in de race naar de maan. Het baart me zorgen dat stemmen uit de publieke sector zich tot nu toe niet echt in het debat hebben gemengd. Als we AI volledig overlaten aan particuliere bedrijven, dan laten we ook de toekomst van de mensheid over aan particuliere bedrijven.
Een deel van het probleem is dat geen enkele universiteit ter wereld het zich kan veroorloven om een eigen model als ChatGPT te ontwikkelen.
Dus u vreest dat AI een bedreiging wordt onder leiding van grote bedrijven?
Li: Ik ben zeker niet anti-zakelijk, dat wil ik benadrukken. Ik ben ook niet tegen de commerciële ontwikkeling van AI. Maar wij mensen vinden krachtige instrumenten uit en niet iedereen gebruikt ze op een verantwoorde manier. Soms gebeurt dit onbedoeld of onbedacht. Bijvoorbeeld wanneer een medische AI-toepassing de gezondheid van patiënten dient, maar de gegevensbescherming negeert.
En overheidsinvesteringen helpen hiertegen?
Li: Ze helpen tenminste om een zeker evenwicht te creëren. Het gaat tenslotte om het algemeen belang, om een therapie voor kanker, om nieuwe soorten muziek, om het redden van het klimaat. Veel van die zaken zijn in het verleden sterk gedreven door overheidsinvesteringen. Ik wil ervoor zorgen dat het krachtige instrument AI op de juiste manier wordt gebruikt. Om dat te doen moeten publieke instellingen, universiteiten en non-profitorganisaties een veel grotere rol spelen. Een deel van het probleem is dat geen enkele universiteit ter wereld het zich kan veroorloven om een eigen model als ChatGPT te ontwikkelen.
Zelfs Stanford niet, misschien wel de rijkste universiteit ter wereld?
Li: Zelfs wij niet. AI is erg duur. Het kost nu honderden miljoenen dollars om een model te trainen en te ontwikkelen. Daarom ben ik al lang voorstander van een door de staat gefinancierde cloud.
Dat zou rekenkracht en gegevensverwerkingscapaciteiten opleveren die te duur zijn voor openbare instellingen?
Li: Ja, dit zou meer academisch AI-onderzoek mogelijk maken. Er is momenteel een tweepartijdig wetsvoorstel in de VS, de Create AI Act, om de enorme financiële onbalans tussen particuliere bedrijven en publieke organisaties aan te pakken. Ik hoop van harte dat het wordt aangenomen.
De staat moet niet alleen investeren, maar ook ingrijpen in de AI-markt met wetgeving?
Li: Regelgeving maakt er natuurlijk deel van uit. Al was het maar om vertrouwen op te bouwen. Net zoals farmaceutische bedrijven niet zomaar mogen beweren: ons medicijn is veilig. Er is al overheidsregulering op bijna alle gebieden, zoals toelating van medicijnen of financieel toezicht. Wat mij het meest urgent lijkt, is dat we de bestaande regelgeving aanpassen waar AI wordt gebruikt.
Aan de andere kant bestaat het gevaar dat te veel overheidsregels de technologische ontwikkeling zullen afremmen.
Li: Er zijn veel bedrijven die aan AI werken met ethische normen en veiligheidseisen. Ze zijn ook niet allemaal geïmplodeerd. Industriestandaarden en een wettelijk kader zijn nodig om onze verantwoordelijkheid te nemen. Bedrijven hebben zeker veiligheidsmaatregelen nodig als ze aan AI werken. Universiteiten trouwens ook.
Uiteindelijk moeten we machine-intelligentie ontwikkelen die menselijke taal, emoties, intenties en gedrag begrijpt.
Hoe zien die eruit op de universiteit van Stanford?
Li: We hebben een ethische toetsingscommissie opgezet met vertegenwoordigers van verschillende faculteiten, die elk AI-project moet beoordelen en goedkeuren. Bedrijven zouden een soortgelijk proces moeten opzetten waarbij zo veel mogelijk belanghebbenden de kansen en risico’s van een nieuw product beoordelen. In het geval van een AI-toepassing in de gezondheidszorg zijn dat onder andere patiënten, ziekenhuismanagers, artsen, verzekeringsmaatschappijen en de relevante autoriteiten. En natuurlijk experts uit het relevante onderzoeksveld.
Wat onderzoekt u momenteel?
Li: In mijn lab werken we voornamelijk aan lerende robots en zogenaamde belichaamde artificiële intelligentie. Dat wil zeggen: robots die bewegen in een virtuele wereld.
Wat is het doel?
Li: Robots ontwikkelen die zich kunnen aanpassen aan het werk en beter en nauwer kunnen samenwerken met mensen.
In de industriële productie of ook op andere gebieden?
Li: Overal, bijvoorbeeld in het huishouden en in de zorg. Er is nog veel fundamenteel onderzoek nodig. De huidige AI-systemen zijn niet flexibel, begrijpen vaak de context niet en zijn moeilijk te sturen in begrijpelijke termen. Uiteindelijk moeten we machine-intelligentie ontwikkelen die menselijke taal, emoties, intenties en gedrag begrijpt.
Is dat wat u drijft: het ontcijferen van de ‘geheimen van intelligentie’, zoals u onlangs in uw gepubliceerde memoires* schreef?
Li: Als kind wilde ik al natuurkundige worden. Dat was mijn eerste studierichting. ’s Avonds las ik boeken van Albert Einstein of Erwin Schrödinger en ik realiseerde me dat, toen ik ouder werd, natuurkundigen vooral nadachten over wat leven en menselijke intelligentie is. Daarom stapte ik over naar neurowetenschappen.
Als doctoraatstudente aan het California Institute of Technology in Pasadena richtte u zich vooral op hoe de hersenen verwerken wat ze te zien krijgen. Voor het eerst leerde u algoritmes aan om beelden beter te herkennen dan dat mensen dat kunnen. Een belangrijke basis voor ChatGPT en soortgelijke systemen. Is visueel begrip de sleutel tot artificiële intelligentie?
Li: Ja, computervisie, dat wil zeggen het herkennen van objecten en gebeurtenissen door de machine, is voor mij artificiële intelligentie. Visuele waarneming is fundamenteel.
Fout opgemerkt of meer nieuws? Meld het hier