De breincellen van een AI-model: daarmee kun je parameters vergelijken. Parameters zijn de bouwstenen die in zekere mate voorspellen hoeveel energie een model gebruikt na het trainen ervan. Het zijn een soort interne regels, waarvan er in taalmodellen miljarden tegelijk actief zijn om tot een goed antwoord te komen.
Het aantal parameters zit vaak in de officiële naam van een model. Qwen3-30B werkt bijvoorbeeld met 30 miljard parameters, Qwen3-235B met 235 miljard. Als het over een ‘groot model’ gaat, gaat het over een AI-model met veel parameters. Dat betekent: veel rekenkracht, maar in de regel ook een hoger energieverbruik.
Het aantal parameters verschilt nogal per model. Van OpenAI’s GPT-4 wordt geschat dat het rond de 1,5 biljoen parameters heeft, GPT-5 mogelijk nog meer. Open-accessmodel BLOOM telt ‘slechts’ 176 miljard parameters, maar dat is alsnog veel meer dan bijvoorbeeld Alibaba’s Qwen en Meta’s Llama, die varianten met 7 miljard parameters hebben.
Het AI-dilemma: vloek of zegen voor het klimaat?
In deze artikelenreeks onderzoekt Change Inc. de invloed van AI op milieu en klimaat, zowel positief als negatief. We proberen een antwoord te vinden op de vraag: is AI een vloek of een zegen voor de duurzaamheidstransitie?
Eerder verschenen in deze reeks:
Energie-efficiënte AI-modellen
Om het energieverbruik van een AI-model te beperken kun je dus het aantal parameters reduceren. Gebruikers kunnen dat deels zelf beïnvloeden door een model te vragen beknopt te antwoorden, of voor een niet-reasoning variant te kiezen als die beschikbaar is. Reasoning modellen volgen logische stappen en zijn daarom vooral geschikt voor het oplossen van complexe problemen.
Minder parameters betekent een andere redeneerstijl en veelal beknoptere antwoorden, maar hoeft het model niet ‘dommer’ te maken – mits de parameters efficiënt samenwerken en goed worden getraind. Soms zijn ze zelfs beter, omdat ze met specifiekere data zijn getraind.
Dat zie je ook aan de resultaten van een onderzoek van de hogeschool München. Wetenschappers lieten veertien grote taalmodellen vijfhonderd vragen beantwoorden en maten hun energieverbruik. In onderstaande tabellen zie je dat de zuinigere modellen niet per se minder goede antwoorden geven.
Zo stootte het relatieve zware (reasoning) Deepseek-r1 70B maar liefst 717 gram CO2-equivalent uit voor het beantwoorden van vijfhonderd multiple-choicevragen, terwijl het maar enkele vragen méér goed had dan Qwen2.5 72B, goed voor slechts 8 gram CO2-equivalent.

Credits: Energy costs of communicating with AI, Frontiers in Communication

Credits: Energy costs of communicating with AI, Frontiers in Communication
Voor de ecologische voetafdruk maakt het dus nogal wat uit welk model je kiest. Toch vergelijkt slechts 27 procent van de leidinggevenden het energieverbruik van verschillende modellen, blijkt uit onderzoek door Capgemini. 20 procent van de leidinggevenden zegt dat ecologische voetafdruk in de top vijf overwegingen staat bij het kiezen of bouwen van een gen AI-model.
Maar bewust of niet, uiteindelijk kiezen bedrijven indirect wel voor de modellen met de kleinste milieu-impact, denkt Joost Carpaij, head of AI bij Capgemini. Want: ‘Kleinere modellen hebben niet alleen minder milieu-impact, maar zijn ook sneller én goedkoper.’
Die kostenreductie is handig voor bedrijven die LLM’s gebruiken of zelf ontwikkelen, maar ook voor grote spelers als Google en OpenAI. Nu maken veel ontwikkelaars nog geen winst, maar kunnen ze leven van investeerders en durfkapitaal. Toch zullen ze uiteindelijk zo laag mogelijke kosten willen hebben, waarmee ook het energiegebruik naar verwachting zal dalen.
Energieverbruik AI-modellen daalt snel
Mede daardoor komen er nu al steeds meer kleinere dan wel efficiëntere modellen op de markt. Matti van Engelen, AI-lead bij SparkOptimus, legt uit: ‘De kosten per query van de beste AI-modellen nu zijn vaak meer dan 90 procent lager dan de kosten die je een paar jaar geleden maakte voor de beste modellen toen. Dat is ook een goede indicatie van het energieverbruik.’
Een mooi voorbeeld van hoopvolle technologische ontwikkelingen zijn de opensourcemodellen gpt-oss-120b en gpt-oss-20b die OpenAI in augustus 2025 lanceerde, benoemt Van Engelen. ‘Vlak nadat ChatGPT uitkwam werd gebruik gemaakt van GPT-3.5. Dat model had 175 miljard parameters. gpt-oss-120b heeft 117 miljard parameters. Het is in totaal dus al kleiner, terwijl het redelijk competitief is met de beste modellen van OpenAI.’
Deze modellen zijn kleiner, maar zijn vooral bijzonder door hoe ze in elkaar zitten. Van Engelen: ‘De modellen zijn als het ware in een aantal losse delen gehakt, die “experts” worden genoemd. Je hebt niet voor elke vraag heel veel rekenkracht nodig. Dus in plaats van dat voor elke prompt alle 117 miljard parameters berekend worden, worden alleen bepaalde experts gebruikt. In dit geval vier experts per voorspelling, met in totaal 5,1 miljard parameters.’
Voor een vraag aan dit model – dat volgens Van Engelen vele malen beter is dan GPT-3.5 – worden dus geen 175 miljard, maar 5,1 miljard parameters ingezet: nog geen 3 procent.
Gelaagdheid in AI-modellen
Het aanbrengen van zulke gelaagdheid is een mooie manier van werken, vindt ook Carpaij. ‘Een groot model schat eerst in wat je wensen zijn en stuurt je daarna als het ware door naar een gespecialiseerder model.’
Zeker voor AI-agents ziet hij grote kansen in gespecialiseerde modellen. ‘Het is zonde om daar heel veel data in te stoppen. Als je een vliegticket moet boeken, heeft het helemaal geen zin om zeventien talen te spreken of te weten hoe het koningshuis van Nederland eruitziet.’
Dat geldt overigens ook voor chatbots van bedrijven, weet hij. ‘Die hebben alleen de interne informatie van een bedrijf nodig, in combinatie met een goed begrip van de talen die ze moeten spreken. Toch zitten daar nu vaak onnodig grote modellen achter. Alle bagage zou je in feite uit zo’n model kunnen smijten, waardoor dat veel kleiner en efficiënter wordt. Dan gaat je energieconsumptie een heel stuk naar beneden.’
In de praktijk is er nog weinig vraag naar kleine, op maat gemaakte taalmodellen, ziet Carpaij. Niet alleen doordat de meeste bedrijven nog ‘aan het begin van de hypecycle’ zitten – ‘Die denken alleen: iedereen heeft het erover, dus wij willen het ook, al weten we niet precies waarom’ – maar ook omdat je veel data nodig hebt om een goed eigen model te trainen. ‘Oók als het om een klein model gaat. Die data hebben bedrijven vaak zelf niet.’
Precisie aanpassen
Er is ook nog een andere manier om modellen kleiner te maken, zegt Enrique Barba Roque. Aan de TU Delft doet hij onderzoek naar het energiezuiniger maken van AI-modellen. Hoewel hij een minder grote rol voor AI voorspelt dan doorgaans wordt gedaan, noemt hij het ‘wel heel handig’. ‘Dus we moeten het niet negeren uit klimaatoverwegingen, maar beter maken. Het energieverbruik bij de bron aanpakken is ook gemakkelijker dan het gedrag van mensen veranderen.’
Naast het aantal parameters kun je ook de precisie van een model aanpassen, legt Barba Roque uit. ‘Een model bestaat uit allemaal cijfers, vaak met meerdere decimalen achter de komma. Die kun je ook minder nauwkeurig maken.’
Verschillende manieren van verkleinen kunnen ook samen worden gebruikt. Volgens Barba Roque maakt dat een model hoogstens een paar procent minder precies, terwijl het energieverbruik harder daalt dan dat.
Energie-efficiënte chips
Niet alleen AI-modellen worden efficiënter; datzelfde geldt voor de zogenoemde graphics processing units (GPU’s) waarop ze worden geladen. Volgens Google leveren zijn datacenters nu bijvoorbeeld bijna vier keer meer rekenkracht dan vijf jaar geleden.
‘Chips worden steeds kleiner, terwijl de rekenkracht steeds groter wordt’, legt Andrew van der Haar, adviseur energie & duurzaamheid bij de Dutch Data Centre Association, uit. ‘Zo heb je elke paar maanden meer processing power op dezelfde vierkante centimeters in je server. Daarmee blijft de voetafdruk hetzelfde.’
De vraag is vooral of chips en modellen zo snel efficiënter kunnen worden dat ze onze grotere honger naar rekenkracht compenseren.
De Nederlandse startup GreenPT is on a mission to change the world door AI duurzamer te maken, luidt de slogan. Het taalmodel werkt volledig op groene energie en wordt in Europa gehost. Daarbij zijn de modellen zo aangepast dat ze 20 tot 30 procent minder rekenkracht nodig hebben om tot dezelfde kwaliteit antwoorden te komen, claimt het bedrijf.
Wat echter vooral bijzonder is is, dat GreenPT gebruikers een schatting van hun CO2-uitstoot toont. Per vraag of opdracht van een gebruiker wordt geschat hoeveel energie de Graphics Processing Unit en Central Processing Unit verbruiken en wat de energie-efficiëntie is. Dat wordt vervolgens omgerekend naar CO2-equivalent. Het bedrijf is de enige AI-aanbieder die deze data openbaar maakt voor gebruikers.
Andere technologische ontwikkelingen: neuromorfe en fotonische chips
Er zijn ook andere hoopvolle technologische ontwikkelingen, stelt Carpaij van Capgemini. Hij wijst op de ontwikkeling van zogenoemde neuromorfe chips, die de neurale processen van het menselijk brein nabootsen.
‘Ons brein werkt op een fractie van de energie van een computer, terwijl we veel meer kunnen doen’, legt hij uit. ‘Onderzoekers kijken nu of ze dat biologische proces met neuronen kunnen namaken en gericht een functie kunnen geven. Dat gebruikt praktisch geen energie.’ Hoewel neuromorfe chips nog in de onderzoeksfase zitten, zien wetenschappers en andere experts er enorm veel potentie in.
Ook in de ontwikkeling van zogenoemde fotonische chips wordt veel geïnvesteerd, waaronder al honderden miljoenen euro’s uit het Nationaal Groeifonds van de overheid. Fotonische chips gebruiken geen elektrische stroompjes, maar lichtsignalen om informatie door te geven. Daarmee zijn ze een stuk energie-efficiënter dan hun elektronische evenknie. Een proeffabriek voor de volledige productie van de chips wordt momenteel gebouwd op de High Tech Campus in Eindhoven.
Paradox van Jevons
Dat het energieverbruik van AI-modellen snel afneemt per prompt, betekent overigens niet per se dat ook het totale verbruikt daalt. Dat heeft alles te maken met de zogenoemde paradox van Jevons.
Die paradox, afkomstig van de ideeën van de 19e-eeuwse econoom William Stanley Jevons, gaat ervan uit dat het efficiënter maken van technologie er vooral toe leidt dat we het voor meer dingen gaan gebruiken. We kunnen dus wel energie besparen door efficiëntere AI-modellen, maar het kan zijn dat dat niet opweegt tegen de energie die nodig is voor het extra gebruik van die efficiënte modellen.
Daarom, stellen experts, is het altijd goed om de overweging te maken of je echt een (zwaar) AI-model nodig hebt. Soms kun je je vraag ook gewoon aan een zoekmachine stellen. ‘Of een goede FAQ-pagina maken in plaats van een chatbot’, aldus Van Engelen. ‘Dat is ook nog eens goedkoper. Financieel is het niet voor elk bedrijf gunstig om het werk te automatiseren, omdat het ontwikkelen van AI-toepassingen veel geld kost.’
Niet alleen de efficiëntie van AI-modellen, maar ook het ontwerp van datacenters bepalen de uiteindelijk milieu-impact van AI. In het volgende artikel in deze reeks onderzoeken we hoe datacenters restwarmte effectief kunnen gebruiken en hoe ze hun waterverbruik verminderen.
Dit artikel is tot stand gekomen zonder gebruik van AI.




