OpenAI: ontslag van Sam Altman wijst op een diepere breuk in de techwereld
Doemdenkers en believers vechten om dominantie in de wereld van de artificiële intelligentie.
Zelfs in de razendsnelle techwereld waren de gebeurtenissen in het weekend van 17 november ongezien. Op vrijdag werd Sam Altman, medeoprichter en baas van OpenAI, het bedrijf dat vooropgaat in de ontwikkeling van artificiële intelligentie (AI), plotseling ontslagen door de raad van bestuur.
Waarom is onduidelijk. Geruchten wijzen op onrust over zijn nevenprojecten, en de vrees dat hij te snel ging om het commerciële aanbod van OpenAI uit te breiden zonder rekening te houden met de impact op de veiligheid.
In de daaropvolgende twee dagen probeerden investeerders en een aantal werknemers Altman terug te halen. Maar het bestuur hield voet bij stuk. Op 19 november benoemde het Emmett Shear, voormalig hoofd van de videostreamingdienst Twitch, tot interim-ceo. Het werd nog sterker toen Satya Nadella, hoofd van Microsoft (een van OpenAI’s grootste investeerders), de volgende dag op X postte dat Altman en een groep werknemers van OpenAI bij de softwaregigant zouden gaan werken om ‘een nieuw geavanceerd AI-onderzoeksteam’ te leiden.
Twee kampen
De gebeurtenissen bij OpenAI tonen meer dan ooit de brede kloof in Silicon Valley. Aan de ene kant staan de doemdenkers, die geloven dat AI, als het niet gecontroleerd wordt, een existentieel risico vormt voor de mensheid en die daarom voorstander zijn van strengere regulering.
Daartegenover staan de believers, die de angst voor een apocalyps bagatelliseren en de nadruk leggen op het potentieel van AI om de vooruitgang te stimuleren. Het kamp dat de meeste invloed heeft, kan strengere regelgeving aanmoedigen of tegenhouden, wat dan weer kan bepalen wie er in de toekomst het meest van AI zal profiteren.
De bedrijfsstructuur van OpenAI houdt het midden tussen beide. Het bedrijf werd in 2015 opgericht als non-profitorganisatie, maar drie jaar later werd er een dochterbedrijf met winstoogmerk opgericht om de vereiste computercapaciteit en denkkracht te kunnen financieren.
Filosofische strijd
De splitsing tussen doemdenkers en believers legt filosofische verschillen bloot. Velen in het doemdenkkamp worden beïnvloed door ‘effectief altruïsme’, een beweging die zich zorgen maakt over de mogelijkheid dat AI de hele mensheid wegvaagt. Een van de piekeraars is Dario Amodei, die OpenAI verliet om Anthropic op te starten, een andere modelmaker. Andere grote techbedrijven, waaronder Microsoft, maken zich ook zorgen over de veiligheid van AI, maar niet zo ernstig.
De believers hangen een wereldbeeld aan dat ‘effectief accelerationisme’ wordt genoemd en dat stelt dat de ontwikkeling van AI niet alleen ongehinderd moet kunnen doorgaan, maar zelfs moet worden versneld. Marc Andreessen, medeoprichter van de durfkapitalist Andreessen Horowitz, leidt de aanval. Andere AI-techneuten lijken met de zaak te sympathiseren. Yann LeCun en Andrew Ng van Meta (het bedrijf boven Facebook en Instagram) en een groot aantal start-ups waaronder Hugging Face en Mistral AI pleiten voor minder restrictieve regelgeving.
Microsoft niet op de hoogte
Altman leek sympathie te hebben voor beide groepen. Hij riep publiekelijk op om ‘vangrails’ in te bouwen om AI veilig te maken, en spoorde OpenAI tegelijk aan om krachtiger modellen te ontwikkelen en nieuwe tools te lanceren, zoals een appstore voor gebruikers om hun eigen chatbots te bouwen.
De grootste investeerder, Microsoft, die meer dan 10 miljard dollar in OpenAI heeft gepompt voor een belang van 49 procent zonder een zetel in de raad van bestuur van het moederbedrijf te krijgen, is naar verluidt niet blij: het werd maar een paar minuten voor Altmans ontslag op de hoogte gebracht van de beslissing. Dat kan de reden zijn waarom het bedrijf hem en zijn collega’s nieuw onderdak heeft aangeboden.
Diepe zakken
Toch lijkt er meer aan de hand te zijn dan abstracte filosofie. De twee groepen zijn namelijk ook verdeeld langs meer commerciële lijnen. De doemdenkers zijn vroege koplopers in de AI-race, hebben diepere zakken en werken met eigen modellen. De believers zijn veeleer bedrijven die bezig zijn aan een inhaalbeweging, zijn kleiner en geven de voorkeur aan opensourcesoftware.
Laten we beginnen met de vroege winnaars. OpenAI’s ChatGPT kreeg in de twee maanden na zijn lancering liefst 100 miljoen gebruikers, op de voet gevolgd door Anthropic, opgericht door overlopers van OpenAI en nu gewaardeerd op 25 miljard dollar. Vorsers bij Google schreven de originele, grote taalmodellen, software die wordt getraind op basis van grote hoeveelheden gegevens, en die de basis vormen voor chatbots zoals ChatGPT. Het bedrijf heeft intussen grotere en slimmere modellen ontwikkeld, en ook een chatbot genaam Bard.
De voorsprong van Microsoft is grotendeels te danken aan zijn grote investering in OpenAI. Amazon is van plan om tot 4 miljard dollar te investeren in Anthropic. Maar in de technologiewereld is de eerste zijn niet altijd een garantie voor succes. In een markt waarin zowel de technologie als de vraag zich snel ontwikkelt, hebben nieuwkomers volop mogelijkheden om gevestigde bedrijven te bedreigen.
Risico van uitsterven
Dat kan de eis van de doemdenkers om een strenge regulering uit te werken nog kracht bijzetten. In een getuigenis voor het Amerikaanse Congres in mei sprak Altman de vrees uit dat de industrie ‘aanzienlijke schade aan de wereld zou kunnen toebrengen’ en drong hij er bij beleidsmakers op aan om specifieke regels voor AI op te stellen.
In dezelfde maand ondertekende een groep van 350 AI-wetenschappers en techneuten, onder wie die van OpenAI, Anthropic en Google, een verklaring van één regel waarin ze waarschuwden voor het ‘risico van uitsterven’ door toedoen van AI, vergelijkbaar met een kernoorlog of een pandemie. Ondanks die angstaanjagende vooruitzichten heeft geen van de bedrijven die de verklaring ondertekenden zijn werk aan krachtigere AI-modellen op pauze gezet.
Politici haasten zich om te tonen dat ze de risico’s ernstig nemen. In juli spoorde de regering van de Amerikaanse president Joe Biden zeven vooraanstaande modelbouwers, waaronder Microsoft, OpenAI, Meta en Google, aan om vrijwillige verbintenissen aan te gaan om hun AI-producten door experts te laten inspecteren voordat ze publiek worden gemaakt.
Op 1 november kreeg de Britse overheid een vergelijkbare groep zover om een andere, niet-bindende overeenkomst te ondertekenen die toezichthouders toestond om AI-producten te testen op betrouwbaarheid en mogelijke schadelijkheid, zoals het in gevaar brengen van de nationale veiligheid. Enkele dagen eerder had Biden een stringenter presidentieel besluit uitgevaardigd. Het verplicht elk AI-bedrijf dat modellen bouwt boven een bepaalde grootte – gedefinieerd door de rekenkracht die de software nodig heeft – om de overheid daarvan op de hoogte te brengen en de resultaten van de veiligheidstests te delen.
Open-source
Een andere breuklijn tussen de twee groepen is de toekomst van opensource-AI. Language Learning Models (taalmodellen) zijn ofwel bedrijfseigen, zoals die van OpenAI, Anthropic en Google, ofwel open-source. De lancering in februari van LLaMA, een model gemaakt door Meta, heeft de activiteiten in opensource-AI aangewakkerd. Voorstanders beweren dat opensourcemodellen veiliger zijn omdat ze openstaan voor kritisch onderzoek. Tegenstanders maken zich zorgen dat het openbaar maken van die krachtige AI-modellen de deur openzet voor misbruiken.
De discussie over open-source heeft natuurlijk ook te maken met commerciële belangen. Durfkapitalisten zijn er fan van, mogelijk omdat de start-ups die ze steunen zo hun achterstand zouden kunnen ophalen of om gratis toegang te krijgen tot modellen. Gevestigde bedrijven zijn dan weer bang voor concurrentie. In een uitgelekte memo geven insiders bij Google toe dat opensourcemodellen voor sommige taken resultaten behalen die vergelijkbaar zijn met die van bedrijfseigen modellen, en dat het veel minder kost om ze te bouwen. De memo concludeert dat noch Google, noch OpenAI een verdedigingsmuur heeft om zich tegen opensourceconcurrenten te beschermen.
Tot nu toe lijken de regelgevers open te staan voor het argument van de doemdenkers. Bidens presidentieel besluit zou een rem kunnen zetten op opensource-AI. De brede definitie in de executive order van ‘dual-use’-modellen, die zowel militaire als civiele doeleinden kunnen hebben, legt complexe rapportage-eisen op aan de makers van dergelijke modellen.
Stilte bij Apple
Niet elk groot techbedrijf valt netjes aan een kant van de scheidslijn. De beslissing van Meta om zijn AI-modellen te opensourcen heeft start-ups een enorme injectie gegeven. Meta gokt erop dat de innovatiegolf die wordt veroorzaakt door opensourcetools het bedrijf vooruit zal helpen: nieuwe content moet de gebruikers aan zich binden en de adverteerders tevreden houden.
Intussen valt het op hoe stil het blijft bij Apple. Bij de lancering van een nieuwe iPhone in september liet het bedrijf talloze op AI gebaseerde functies zien, maar het noemde de term niet. Wanneer ernaar werd gevraagd, gebruikten de leidinggevenden liever ‘machine learning’ – een andere term voor AI.
Dat is slim. De crisis bij OpenAI illustreert hoeveel schade de cultuuroorlogen over AI wel kunnen aanrichten. Maar het zijn die oorlogen die zullen bepalen hoe de technologie zich verder ontwikkelt, hoe ze gereguleerd wordt en wie er met de buit vandoor gaat.
Fout opgemerkt of meer nieuws? Meld het hier