UvA-wetenschappers besparen tijd en geld door AI in te zetten bij het doen van hun onderzoek. Maar critici waarschuwen dat dit gevaarlijk is: het is onmogelijk om te weten hoe AI als ChatGPT tot zijn antwoorden komt. Is de nieuwe chatbot DeepSeek, dat een stuk transparanter claimt te zijn, de oplossing?
Dankzij ChatGPT kon Petter Törnberg, onderzoeker in Computationele Sociale Wetenschappen aan de UvA, een van zijn duurste en langzaamste onderzoekstaken automatiseren: het analyseren van sociale media-berichten.
Hij onderzoekt het gedrag van politici op sociale media zoals X, bijvoorbeeld door te kijken of ze desinformatie verspreiden. Volgens hem bevat dit ‘een schat aan informatie over menselijk gedrag en onze samenleving’, maar voordat deze data bruikbaar is, moet de inhoud van elk bericht worden omgezet van tekst naar onderzoeksdata.
Voor de komst van AI was dit een kostbare en foutgevoelige handmatige klus, legt Törnberg uit: ‘Ik moest studentassistenten of ‘coders’ inhuren voor tienduizenden euro’s, die maandenlang geestdodend berichten beoordeelden voor mijn onderzoek.’ Nu kan ChatGPT dit werk voor hem doen in ‘Vijftien minuten voor drie euro, met minder fouten dan mijn studenten.’
Hoewel Törnberg enorm blij is met zijn nieuwe onderzoeksassistent, heeft hij ook een kritische kanttekening: het model is ontwikkeld door het Amerikaanse techbedrijf OpenAI. Törnberg: ‘Het is problematisch als wij, als wetenschappers, afhankelijk worden van zulke machtige platformbedrijven.’
AI in de wetenschap
Törnberg is niet de enige UvA-wetenschapper die AI inzet voor tijdrovende taken. Historici gebruiken sinds vorig jaar Transkribus om handgeschreven documenten snel te digitaliseren, en de scheikunde-afdeling heeft een ChatGPT-gestuurde robot die de synthese van tien tot twintig moleculen per week optimaliseert – iets wat een promovendus maanden zou kosten.
Jelle Zuidema, universitair hoofddocent explainable AI, waarschuwt voor de ‘wildgroei van AI-toepassingen’ en de risico’s van afhankelijkheid van techbedrijven zoals OpenAI, die weinig transparantie bieden. ‘Wetenschap ontdekt de waarheid stapsgewijs, dus moeten gebruikte bronnen traceerbaar blijven. Als AI belangrijke stappen uitvoert, lukt dat niet,’ aldus Zuidema.
Sandro Pezzelle, universitair docent responsible AI, legt uit dat de wetenschap niet weet hoe AI-modellen zoals ChatGPT precies werken: ‘We weten niet op welke data het getraind is en of het technieken toepast om antwoorden feitelijk correct en onschadelijk te maken.’
Zuidema stelt dat hierdoor de feitelijke juistheid van de beslissingen van AI-taalmodellen nooit gegarandeerd kan worden.
Törnberg erkent deze zorgen maar wijst erop dat ook mensen fouten maken: ‘Daarom valideren we onze resultaten altijd tegen andere coders, ongeacht of ze door mensen of AI zijn gemaakt’. In zijn onderzoek past hij procedures toe om AI-resultaten ‘feitelijk juist en reproduceerbaar’ te maken, net zoals hij deed voor de komst van AI.
DeepSeek als alternatief
DeepSeek is een interessante nieuwkomer in het debat over de betrouwbaarheid van AI in wetenschappelijk onderzoek.
Dit Chinese AI-model, dat eind vorige maand werd gelanceerd, kan qua prestaties concurreren met OpenAI, maar biedt een belangrijk voordeel: het biedt onderzoekers meer inzicht in de werking van het algoritme. Bovendien kunnen ze het model volledig zelf beheren, inclusief dataopslag, zonder per se data te hoeven delen met een techbedrijf. Zou dit een oplossing zijn voor de kritiek dat het gevaarlijk is dat wetenschappers niet weten hoe de chatbot tot zijn antwoorden komt?
Zuidema ziet ‘open’ modellen zoals DeepSeek als een ‘goede kans’ om AI-transparantie te verbeteren: ‘We zouden zoveel mogelijk moeten overstappen naar ‘open’ AI voor belangrijke onderzoeksstappen, zodat we beter kunnen begrijpen hoe deze modellen tot hun conclusies komen.’ Toch waarschuwt hij: ‘We hebben nog niet het gereedschap om ‘open’ modellen optimaal te doorgronden.’ Pezzelle vult aan: ‘Omdat AI zo snel verandert, hebben we continu nieuwe technieken nodig om ze te kunnen begrijpen.’ Ondanks hun kritische kanttekening zijn beiden wel enthousiast over open modellen als DeepSeek.
Törnberg is sceptisch over de vernieuwing die DeepSeek zou brengen: ‘Dat je het volledig op je eigen computer kunt gebruiken, geeft je inderdaad meer controle over je data, maar dat was al mogelijk met andere AI-modellen.’
Hij wijst ook erop dat hoewel DeepSeek ‘open’ is, het indirect wordt gecontroleerd door de Chinese regering – een feit dat snel duidelijk wordt als je het vragen stelt over gevoelige kwesties, zoals het Tiananmenplein of Taiwan.
Toekomst van AI in de Wetenschap
Zuidema verwacht dat AI onmisbaar wordt in de wetenschap: ‘De mogelijkheden zijn te aanlokkelijk, en het gemak te groot.’ Hij denkt dat AI steeds vaker zal worden gebruikt voor analyses en als onderzoekstechniek.
Toch benadrukt hij dat wetenschappers verantwoordelijk moeten blijven: ‘We moeten ons altijd afvragen: is er een menselijke wetenschapper die garant staat voor dit werk?’
Hij bekritiseert het gebrek aan UvA-richtlijnen voor AI in onderzoek: ‘Ik zit ook in de Taskforce AI in Onderwijs; ook daar duurt het lang voordat adviezen volledig zijn uitgewerkt en geïmplementeerd. We zitten nu in een overgangsfase naar meer AI in onderzoek, dus de Universiteit van Amsterdam moet hier snel beleid over maken.’
Ondanks de discussies blijft Törnberg optimistisch over de impact van AI: ‘Zorgen over de betrouwbaarheid van AI zijn bekend, maar AI zorgt ook voor academische democratisering. Het stelt jonge wetenschappers in staat om onderzoek te doen dat enkele jaren geleden alleen mogelijk was met een goed gefinancierd lab. Dat is fantastisch.’