Steven Latré (Imec): ‘Als AI niet duurzamer wordt, is het gedoemd om te falen’

© Rebecca Fertinel
Elisa Hulstaert
Elisa Hulstaert Redacteur

Artificiële intelligentie (AI) kan een krachtig wapen zijn in de strijd tegen klimaatverandering, maar voorlopig maakt ze het probleem nog erger. ‘We staan op een scharniermoment’, zegt Steven Latré van Imec.

‘De gemiddelde Belg gebruikt elke dag een honderdtal AI-systemen, vaak zonder het te beseffen’, zegt Steven Latré. Hij is verantwoordelijk voor artificiële intelligentie (AI) bij het Vlaamse maar wereldvermaarde onderzoekscentrum Imec. AI verwijst naar machines die dankzij een uitzonderlijk inzicht in data zelfstandig kunnen leren, redeneren, beslissingen nemen en handelen. Het zit in onze auto’s en mobiele telefoons, maar ook in sociale netwerken, webshops en streamingdiensten.

‘In de jaren negentig moest Bill Gates uitleggen wat het internet was. Vandaag kan niemand zich nog een wereld voorstellen zonder’, zegt Latré. ‘Met AI zal dat over twintig à dertig jaar precies hetzelfde zijn.’ Artificiële intelligentie heeft een enorm potentieel. Door complexe berekeningen te maken, rekening houdend met meer parameters dan het menselijke brein ooit zal aankunnen, slaagt het erin de meest accurate klimaatvoorspellingen te maken, energieverlies op te sporen en industrieën te helpen decarboniseren. Maar zulke modellen trainen, kost erg veel energie en stoot een aanzienlijke hoeveelheid CO2 uit. ‘En dat is een van de grootste uitdagingen van artificiële intelligentie’, zegt Latré.

Vergroot onze ecologische voetafdruk significant door elke dag zo veel AI te gebruiken?

Steven Latré: Je moet een onderscheid maken tussen de zogenaamde kleine en grote AI. Kleine AI staat bij jou op je toestel. Als je bijvoorbeeld via een spraakopdracht het licht in de kamer wilt uitdoen, zijn daar heel wat AI-systemen voor nodig. Om te beginnen moet het systeem geactiveerd worden dat het commando opneemt. Voor de producten van Apple is dat ‘Hey Siri’. Zodra dat gelukt is, wordt de opname doorgestuurd naar een datacenter. Daar wordt je spraakopdracht omgezet naar tekst, wordt het ontcijferd, wordt het commando teruggestuurd naar je telefoon en gaat het licht bij jou in de kamer uit. Heel die cyclus vraagt meer energie en produceert meer CO2 dan het licht een volledig uur laten branden. Je kunt dus beter gewoon zelf op de schakelaar duwen. In principe valt het energieverbruik van die kleine AI wel mee, maar als je bedenkt hoeveel keer per dag zulke opdrachten worden gegeven, tikt dat behoorlijk aan.

Grote AI zit dan weer in taalmodellen zoals die van chatbots, Google Translate of Deepl, maar ook in complexe tekstgeneratoren zoals in de recent gelanceerde betaversie van ChatGPT, een programma dat op basis van een eenvoudige opdracht indrukwekkende teksten produceert, en waarmee je ook kunt chatten. Maar nu hebben we het alleen over het gebruik van AI, niet over de training ervan. En dáár zit het grootste energieverbruik.

© Rebecca Fertinel

Hoe komt dat?

Latré: Vooraleer een AI-systeem gebruikt kan worden, moet het getraind worden. Op basis van enorme hoeveelheden data leert een algoritme hoe bepaalde dingen moeten gebeuren. Dat proces verslindt energie. Voor de training van GPT-3, die in 2020 gelanceerd werd en aan de basis lag van ChatGPT, werden honderden miljoenen pagina’s tekst door het systeem gepompt, waaronder de volledige Engelstalige Wikipedia. Onderzoekers rekenden uit dat alleen al de training van dat model ongeveer evenveel CO2 uitstootte als met een dieselwagen naar de maan en terug rijden.

Sinds de opkomst van deep learning, zo’n tien jaar geleden, winnen AI-systemen veel sneller aan complexiteit dan computersystemen aan rekenkracht. Deep learning is een artificieel neuraal netwerk waarvan de werking gebaseerd is op onze hersenen. Computers zijn daardoor in staat om nieuwe dingen te leren aan de hand van grote hoeveelheden data. Daardoor is er steeds meer rekenkracht nodig om één AI-systeem te laten draaien.

AI-systemen worden steeds groter, en het aantal berekeningen die nodig zijn om ze te trainen is mettertijd exponentieel toegenomen, maar de laatste jaren gaat die exponentiële groei nog veel sneller dan vroeger. In de begindagen van AI verdubbelde het aantal berekeningen om de twee jaar. Maar de laatste tien jaar neemt het aantal benodigde berekeningen elk jaar met een tien- tot vijftienvoud toe. Dat betekent dat we ieder jaar ook tien tot vijftien keer meer energie nodig hebben om alle berekeningen uit te voeren om die AI-modellen te trainen. Dat levert weliswaar hele krachtige AI-systemen op, maar de impact op het klimaat is gigantisch.

En dat terwijl we midden in een klimaat- en energiecrisis zitten.

Latré: Dat klopt, maar dat betekent niet dat we moeten stoppen met erin te investeren. We staan op een belangrijk scharniermoment. Ik ben er rotsvast van overtuigd dat AI een enorm potentieel heeft. Het is een systeemtechnologie die nog volop evolueert. Eerst had je de stoommachine, daarna volgden elektriciteit, de computer en het internet. Als je het mij vraagt, is artificiële intelligentie de volgende in het rijtje. Die technologie zal kunnen helpen in de strijd tegen de klimaatverandering. Met Imec dragen we daar ook al een steentje toe bij. Zo werken we – samen met professor Ivan Janssens van de UAntwerpen – mee aan een Europees project dat onderzoekt of reactoren vol mineralen, schimmels, bacteriën en wormen CO2 kunnen opnemen. Die reactoren zouden dan in bedrijven geplaatst worden om CO2-uitstoot te vermijden. Op kleine schaal is al aangetoond dat het werkt, maar om dat op grote schaal te doen, moet je constant heel wat parameters in het oog houden en analyseren, zoals de temperatuur, de vochtigheidsgraad en de zuurtegraad van de reactor. Omdat het over enorm grote vaten gaat, zou ons dat nooit lukken zonder AI. Als dit project tot een goed einde gebracht wordt, kan dat een gamechanger zijn in de strijd tegen de klimaatopwarming.

Voor een ander project in IJsland zetten we artificiële intelligentie in om een beter zicht te krijgen op de impact van de klimaatopwarming op de vegetatie. Je hebt er regio’s waar de grond door geothermische warmte opwarmt, in een gradiënt van 0 tot 50 graden Celsius. Op die plekken kunnen we ontdekken welke vegetatie het best gedijt bij een specifieke temperatuur. Het is belangrijk om daar inzicht in te krijgen, omdat we dan al kunnen ontdekken hoe de toekomst eruit kan zien. Via sensoren evalueren we in real time de vegetatie op de testsites. AI kan ons helpen om in te schatten wat bepaalde parameters betekenen voor de vegetatie, en of iets effect heeft op pakweg bladgroei of resistentie. Bij dat alles houdt AI rekening met meer parameters dan we als mens aankunnen.

Welke rol spelen datacenters in dit verhaal?

Latré: Datacenters zijn faciliteiten vol computers die heel veel berekeningen maken. AI heeft die rekenkracht nodig. Heel wat zaken die we vandaag op het internet doen, zitten achter zo’n cloud computing-systeem. Alle grote websites, zoals Facebook of Twitter, zitten vandaag in zo’n omgeving.

Experts schatten dat datacenters verantwoordelijk zijn voor 2 procent van de globale CO2-uitstoot. Dat is evenveel als de luchtvaart.

Latré: Dat is heel stevig. Dat is niet volledig toe te schrijven aan de training en het gebruik van AI, maar het maakt er wel een belangrijk deel van uit. Zeker in Nederland, waar heel wat datacenters staan, leeft er al een debat rond het energieverbruik en de CO2-uitstoot. Het is belangrijk om daar als samenleving over na te denken. Als AI niet duurzamer wordt, is het volgens mij gedoemd om te falen.

Waar ligt de oplossing?

Latré: Voor mij ligt de oplossing in het samenbrengen van de hardware én de software (de hardware zijn de computers met hun rekenkracht, de software zijn de algoritmes, nvdr). Zelf heb ik een softwareopleiding gehad, en Imec is eerder een op hardware georiënteerd bedrijf. Ik ben er van overtuigd dat we op het snijpunt van die twee de grootste innovaties zullen zien.

In de wereld van de software willen ze de AI-modellen altijd maar groter maken, omdat de intelligentie dan vanzelf volgt. En voorlopig werkt dat ook. Maar in de wereld van de hardware waarschuwen ze daarvoor, omdat we tegen de limieten beginnen te botsen van de verwerkingscapaciteit van onze computersystemen. Die twee werelden zijn los van elkaar aan het evolueren. De oplossing voor het duurzaamheidsprobleem van AI ligt er juist in om de hardware op zo’n manier te ontwikkelen dat de software er beter op kan draaien, én om de software zodanig aan te passen dat ze op de hardware past.

© Rebecca Fertinel

Momenteel worden AI-berekeningen vooral uitgevoerd op grafische kaarten, de zogenaamde GPU’s die vroeger al gebruikt werden om te gamen. We gebruiken dus hardware die we al hadden, omdat dat blijkbaar ook werkt voor AI. Maar als AI toch zo dominant zal zijn in de toekomst, is het logischer om heel specifieke hardware te gaan ontwikkelen om die software te ondersteunen. Andersom kunnen we efficiëntere algoritmes proberen te ontwikkelen die minder berekeningen nodig hebben. Die zullen dan misschien 5 procent minder goed draaien, maar als we daarmee een factor 100 winnen in energie-efficiëntie, is dat het wel waard.

De artificiële neurale netwerken die we vandaag gebruiken voor deep learning zijn gebaseerd op hoe men in de jaren 1960 of 1970 dacht dat onze hersenen werkten. Dat idee is achterhaald. Het zorgt ervoor dat we duizenden berekeningen moeten maken op traditionele hardware, wat de oorzaak is van de hoge energieconsumptie. Maar ons brein is net een heel efficiënt systeem dat in real time enorme hoeveelheden informatie kan verwerken. Bij Imec werken we aan microchips die die werking imiteren. Ze bootsen na hoe neuronen in de hersenen met elkaar samenwerken, informatie uitwisselen, voorspellingen doen en patronen herkennen. Er worden geen getallen meer uitgewisseld, maar elektronische impulsen, en dat verbruikt 100 keer minder energie.

Grote techbedrijven als Google, Amazon en Meta zetten de grote middelen in. Bestaat niet het gevaar dat zij de koers van AI zullen bepalen?

Latré: Enkele van die techgiganten zijn inderdaad ook op gebied van onderzoek grote spelers. Google DeepMind, een bedrijf dat gespecialiseerd is in AI, heeft op topconferenties vaak de grootste lijst aan auteurs. Het goeie is dat ze veel onderzoeksresultaten publiek beschikbaar maken, en vaak ook de code die daaraan hangt.

DeepMind wist het energieverbruik voor het koelen van datacenters met 40 procent terug te brengen.

Latré: Dat toont aan dat ze er echt mee bezig zijn. Als je puur kijkt naar de ontwikkeling van de algoritmes, dan zijn die grote spelers inderdaad bepalend. Maar daarnaast ligt nog een gigantisch veld open met veel onderbenut potentieel. Bij Imec focussen we op duurzaamheid en op AI dicht bij de mens, de kleine AI waarover ik het in het begin had. Wereldwijd hebben wij daar nog altijd de beste troeven voor in huis. Veel meer dan de grote spelers. We zijn wereldwijd een leider in nano-elektronica. De grootste disrupties, zeker in hardware én software, kunnen uit Vlaanderen komen. We hoeven als Vlaams instituut niet bang te zijn voor de techgiganten.

Moeten we niet kritischer kijken naar het gebruik van AI? Technologie die ons helpt in de strijd tegen de klimaatverandering is waardevol. Maar wat is de meerwaarde van iets als DALL-E, een AI-systeem dat op basis van een tekstuele omschrijving beelden creëert?

Latré: Ik vind niet dat we beperkingen moeten opleggen aan de manier waarop AI zich momenteel ontwikkelt. Het is een systeemtechnologie in volle ontwikkeling en dat kent zijn groeipijnen, maar het zijn geen problemen waar geen oplossingen voor bestaan. Ik vind wel dat het brede publiek beter op de hoogte moet zijn van de risico’s van AI. Bewustwording is voor mij belangrijker dan beperking.

Als leken een AI-toepassing gebruiken, hebben ze geen idee hoeveel energie ze verbruikt. Moet er een energielabel komen, zoals voor elektronische apparaten?

Latré: Het grote energieverbruik zit vooral in de training van de grote AI-systemen, dat ene commando van een gebruiker zal het verschil niet maken. Maar om terug te komen op het voorbeeld van het licht aan- en uitzetten via een spraakcommando: daar ben ik dus mee gestopt. Ik sta nu echt op en ga op de schakelaar duwen. (lacht) Bewustwording zorgt ervoor dat je AI niet zomaar overal gratuit inzet. Ik weet niet of er een energielabel moet komen voor AI, maar ik geloof wel dat technologiespelers van duurzaamheid een verkoopargument zullen maken. Bijvoorbeeld dat Apple zal zeggen dat Siri niet meer beter zal worden dan Alexa (de virtuele assistent van Amazon, nvdr), maar wel tien keer duurzamer.

Dan moeten gebruikers kiezen tussen een gerust geweten omdat het duurzamer is versus gebruiksgemak omdat ze vanuit hun luie stoel het licht kunnen uitdoen?

Latré: Dat is hetzelfde als kiezen om je huis te verwarmen tot 19 of tot 22 graden. Ik zet mijn verwarming ook liever op 22, maar je zoekt een balans.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content