Niks meer missen?
Schrijf je in voor onze nieuwsbrief!
Foto: Sara Kerklaan
opinie

Pepijn Stoop | Ja, Shell is vervuilend, maar kijk ook eens naar AI

Pepijn Stoop ,
27 januari 2023 - 08:20

Vorige week bezetten tientallen UvA-studenten deels het Binnengasthuis uit protest tegen de banden die onze universiteit onderhoudt met Shell. Olie is slecht voor het milieu: dat kan men buiten Science Park ook wel bedenken. Maar dat artifical intelligence (AI) een enorme milieu-impact heeft? Dat weten onze eigen studenten nauwelijks.

Sinds 1 januari ben ik gestopt met vlees eten om mijn eigen ecologische voetafdruk te verkleinen. Het was tijdens een bijeenkomst met andere artifical intelligent-studenten dat ik trots hierover vertelde. Totdat een van de andere studenten een presentatie gaf – over de milieu-impact van artifical intelligence (AI), waaronder die van taalmodellen. Ik voelde me na die presentatie toch een beetje hypocriet, en ik zal je uitleggen waarom.

Het trainen van GPT-3, de voorloper van ChatGPT, heeft naar schatting 936 Mwh verbruikt. Daarmee kun je 350 huishoudens een jaar van stroom mee voorzien

Toen ik dit stuk ging schrijven kwam ik erachter dat weinig mensen – binnen en buiten AI – beseffen dat modellen als ChatGPT grootvervuilers zijn. Er zijn al duizend stukken geschreven over ChatGPT: over hoe het je existentiële levensvragen kan beantwoorden, je code kan schrijven en je tentamen kan maken, zie ook mijn vorige column. Maar één cruciale en confronterende boodschap mist: ChatGPT stoot per dag 3.82 ton C02 uit. Dat is meer dan wat een huishouden in 2,5 jaar uitstoot door elektriciteitsverbruik. De schatting is bij ChatGPT gebaseerd op 1 miljoen gebruikers die ieder per dag 10 vragen stellen. Gezien ChatGPT al binnen vijf dagen na de lancering dit aantal bereikt had en daarna nog hard is gegroeid, is de uitstoot waarschijnlijk hoger.

 

Aardig vervuilend voor een gezellige vraagbaak. Hoe komt dat dan? Voornamelijk door de manier waarop deze modellen worden getraind. De enige manier waarop recente modellen taal leren is door ze gigantische hoeveelheden data te voeren. In het geval van ChatGPT gaat het om minstens 8 miljoen webpagina’s. Zo’n algoritme train je niet tijdens je lunchpauze. Het trainen van BERT, een taalmodel van Google, duurde vier dagen. Daarbij komt dat je zulke modellen niet kunt trainen op je Acer-laptop van vier jaar oud. Het trainen van GPT-3, de voorloper van ChatGPT, heeft naar schatting 936 Mwh verbruikt. Daarmee kun je 350 huishoudens een jaar van stroom voorzien.

 

Absurde getallen, zeker in een klimaatcrisis. Het sneue is nog wel dat de gebruikers van deze modellen niet de inwoners van Bangladesh zijn die moeten dealen met overstromingen, maar de rijke, Westerse landen. Maar wat nog erger is, is het feit dat ik bijna mijn bachelordiploma heb behaald en hier nog nooit over had gehoord. Indirect weten studenten wel dat modellen niet draaien op lucht. Maar kennis over hoe enorm dat verbruik is, biedt een belangrijk tegenargument om bepaalde ‘grijze’ modellen, zoals een neuraal netwerk, niet te gebruiken als een simpeler en groener model ook volstaat – maar dan moeten de toekomstige promovendi bij AI dat wel weten. 

 

Ik vraag mezelf inmiddels af of ik wel groen doe als ik geen vlees eet, maar wel wekelijks modellen laat draaien die niet erg bijdragen aan een positieve footprint. Misschien moet ik dat toch maar weer aan ChatGPT gaan vragen.

 

Pepijn Stoop is UvA-student kunstmatige intelligentie.