Niks meer missen?
Schrijf je in voor onze nieuwsbrief
Technologisch determinisme in het AI-onderwijs
Foto: Marc Kolle.
opinie

Huidig AI-onderwijs is te eenzijdig gericht op technologie

Frank Wildenburg Frank Wildenburg,
4 juni 2025 - 12:30

Met de opkomst van de ‘moderne’ kunstmatige intelligentie komt niet alleen een curriculumwijziging. Ook de normen en waarden impliciet in de opleiding, het ‘wereldbeeld’ dat wordt overgedragen aan de student, verandert ermee, betoogt docent kunstmatige intelligentie Frank Wildenburg.

Met de opkomst van ‘moderne’ kunstmatige intelligentie (AI) in bijna alle delen van de samenleving moeten ook de AI-opleidingen zich aanpassen. Om de nieuwe systemen te begrijpen is meer kennis van wiskunde en programmeren nodig, terwijl ‘klassieke’ AI-vakken over psychologie en logica steeds minder relevant lijken. Maar met deze veranderingen komt niet alleen een curriculumwijziging. Ook de normen en waarden impliciet in de opleiding, het ‘wereldbeeld’ dat wordt overgedragen aan de student, verandert ermee.

 

Onschuldige keuze

Het eerste deel van een ‘gemiddelde’ Nederlandse AI-bachelor bestaat uit het bijbrengen van de technologische en wetenschappelijke basis die noodzakelijk is voor het vakgebied. Denk hierbij aan praktische kennis zoals programmeer- vaardigheden, of fundamentele theorieën.

 

Dit klinkt als een onschuldige keuze – je moet begrijpen hoe AI-systemen werken voordat je ze kan analyseren. Maar de keuze voor deze theorieën, zonder dat studenten de kennis hebben om ze te analyseren, zorgt ervoor dat deze fundamenten voor de student worden gepresenteerd als ‘onvermijdelijk’ en ‘onaanpasbaar’. En dat terwijl dit helemaal niet zo hoeft te zijn: de keuze om AI-modellen te bouwen op juist deze theorieën is immers ook afhankelijk van de ontwikkeling van het vakgebied.

Veel van de ‘aanraking met de praktijk’ binnen de studie AI bestaat uit leren programmeren en niet uit ‘zachte’ ethische kennis

Bovendien is de keuze om te beginnen met fundamentele technologische theorieën ook geen waardevrije keuze! Technisch begrip van de modellen is nodig om zelf AI-systemen te kunnen (re)produceren, maar waarom wordt er de keuze gemaakt om studenten eerst te leren programmeren en hen daarna pas te informeren over de ethische risico’s die daarbij relevant zijn? Alsof je de leerlingen eerst een lucifer geeft en twee jaar later een emmertje water om de brand te blussen.

 

Nadat studenten geleerd hebben over fundamentele theorieën leren ze hoe deze theorieën worden toegepast in huidige of toekomstige AI-systemen. Voor studenten is dit een populair onderdeel: eindelijk kunnen ze bezig met de ‘echte’ AI-modellen die ze in het nieuws en hun echte leven tegenkomen.

 

Maar impliciet worden deze technologieën hiermee gepresenteerd als een ‘logisch gevolg’ van de fundamenten die de studenten eerder hebben gezien, zonder dat ze reflecteren op de waarden die ertoe hebben geleid dat juist déze technologieën eruit volgden. Bovendien zorgt de prioriteit van de technologische boven de ethische aspecten voor het beeld dat ‘een echte wetenschapper’ alleen maar dingen wil ontwikkelen, zonder zich zorgen te hoeven maken over mogelijke nadelen ervan. Of, zoals ik meer dan eens heb gehoord: ‘Ik wil alleen maar knutselen, en over de ethische kwesties mogen andere mensen nadenken’.

 

Zijspoor

Pas aan het einde van de studie, of als ‘zijspoor’ naast de ‘echte’ vakken, komen de studenten in aanraking met de ‘niet-technologische’ delen van het vakgebied: ethiek, beleid, en maatschappij. In de praktijk zijn dit vaak een paar vakken los van de rest van de studie. Bovendien zijn deze vakken niet altijd toepasbaar. Omdat tijdens deze enkele vakken het hele ‘ethische’ deel van de studie behandeld moet worden bestaan de vakken vaak uit abstracte theorieën en hypothetische toekomstscenario’s. Nuttige kennis, maar niet praktisch voor het hier en nu, of voor hoe we huidige ontwikkelingen zouden kunnen bijsturen.

 

De praktische omstandigheden binnen de studie helpen hier niet bij. Veel van de ‘aanraking met de praktijk’ binnen de studie bestaat uit werknemers van technische bedrijven, bij wie programmeervaardigheden vaak belangrijker zijn dan ‘zachte’ ethische kennis. En tenslotte is er nog het feit dat AI-ontwikkeling tegenwoordig steeds meer plaatsvindt bij de grote AI-bedrijven zoals Google, Meta en OpenAI, waardoor puur academisch-theoretische kennis niet altijd meer het aanzien heeft als vroeger.

 

Het resultaat: aan het einde van de opleiding zijn studenten ervan overtuigd dat de analyse en regulering van AI-ontwikkeling iets is waar alleen ‘anderen’ zich zorgen om hoeven te maken, niet relevant voor hun professionele toekomst.

 

Technologisch determinisme
Het bovenstaande maakt de kernboodschap impliciet in de opleiding duidelijk: de fundamenten van het vakgebied staan vast, alle huidige ontwikkelingen volgen daar onvermijdelijk uit, en het is de rol van de student om deze ontwikkelingen mogelijk te maken. Alles ‘eromheen’ (ethiek, beleid, wetgeving) mag naar andere disciplines, of desnoods weg.

 

Het is een boodschap van technologisch determinisme: de filosofische theorie die stelt dat de ontwikkeling van technologie uitsluitend wordt bepaald door interne efficiëntie. De waarden van maatschappijen en culturen worden wel bepaald door de ontwikkeling van technologie, maar andersom niet. Of, bot gezegd: hoe technologie zich ontwikkelt kan niet worden beïnvloed, en de samenleving heeft zich er maar aan aan te passen.

AI-ontwikkeling vindt steeds meer plaats bij de grote AI-bedrijven als Google, Meta en OpenAI, waardoor academisch-theoretische kennis minder aanzien heeft gekregen

Atoombom

Binnen de moderne filosofie van de technologie is er veel kritiek op dit idee. Zo is er het feit dat de ontwikkeling van technologie niet alleen wordt aangestuurd door innovation push, maar ook door de demand pull van de maatschappij.

 

Was de atoombom bijvoorbeeld wel uitgevonden zonder de Tweede Wereldoorlog? Bovendien kunnen maatschappelijke normen en waarden invloed hebben op wat die eisen zijn, of wat wordt gezien als een ‘logische’ ontwikkeling. Toch is het technologisch determinisme iets dat binnen de techwereld moeilijk te weerleggen is en het bovenstaande laat zien hoe AI-opleidingen dit beeld in stand houden. Dit is een groot risico!

 

Technologisch determinisme kan ervoor zorgen dat wetenschappers niet nadenken over de ethische consequenties van hun ontwikkelingen (want ‘anders doet iemand anders het wel’), niet nadenken over alternatieven (want het een ‘volgt logisch’ uit het andere), of denken dat alle maatschappelijke problemen door technologie opgelost kunnen worden (want ‘de interne efficiëntie lost het wel op’).

 

Met het bovenstaande wil ik niet zeggen dat een ‘modern’, technisch AI-curriculum slecht is, maar we kunnen studenten wel duidelijk maken dat dit niet het enige deel van AI is! Zo kunnen bijvoorbeeld niet alleen de technologische aspecten van AI als fundamenteel gepresenteerd worden, maar ook de maatschappelijke delen. Of, in andere woorden: maak het studenten duidelijk dat programmeren bij Google niet het enige valide eindpunt voor ze is. Dat een baan als beleidsmaker, ethicus of jurist rond AI, bij de overheid of een non-profit net zozeer een ‘baan op niveau’ is als een technisch-inhoudelijke AI-positie. Hopelijk kunnen we zo zorgen dat wij controle houden over AI, en niet andersom.

 

Frank Wildenburg is logicus en docent kunstmatige intelligentie aan de bètafaculteit van de UvA.

website loading