Bij de rechtenfaculteit van de UvA doken vorig jaar 44 gevallen van AI-fraude op. Dat is goed voor bijna een derde van alle 143 geregistreerde fraudezaken. Het is een opvallende stijging ten opzichte van voorgaande jaren, waarin AI-fraude nog nauwelijks voorkwam.
De rechtenfaculteit zag het afgelopen academisch jaar (2024-2025) 44 gevallen van AI-gerelateerde fraude en plagiaat. Dat blijkt uit cijfers van de examencommissie. AI-fraude betekent dat studenten zonder toestemming tools zoals ChatGPT gebruiken voor opdrachten, tentamens of scripties.
In totaal behandelde de faculteit 143 fraudezaken van zowel bachelor- als masterstudenten, waarvan bijna een derde dus AI-gerelateerd was. Ter vergelijking: in 2023-2024 ging het nog om 18 gevallen van AI-gerelateerde fraude van de 136 totaal geregistreerde zaken. In 2022-2023 was er geen één keer AI-fraude vastgesteld van de 129 fraude- en plagiaatzaken in totaal.
In 2024-2023 is bij 23 gevallen daadwerkelijk fraude vastgesteld en volgde een sanctie, het jaar daarvoor waren dat er nog 15. In de overige gevallen kon de commissie geen fraude aantonen of was het niet met voldoende zekerheid vast te stellen. Volgens het sanctiebeleid van de rechtenfaculteit hangt de zwaarte van de straf af van de ‘ernst van de fraude’ en de ‘mate van verwijtbaarheid van de student’. Welke sancties precies kunnen worden opgelegd, is echter niet in detail vastgelegd.
Rechtenstudenten veroordeeld voor AI-gebruik
Eerder deze zomer speelde een zaak rond een UvA-rechtenstudent die in beroep ging tegen een sanctie voor AI-gebruik, meldde Folia. De student had ChatGPT gebruikt bij een groepsopdracht, waarbij hij vier niet-bestaande bronnen inleverde. Nadat zijn docent dit ontdekte, bekende hij dat de chatbot de referenties had gegenereerd.
De examencommissie bestempelde dit als ‘ernstige fraude’. De student werd uitgesloten van het vak én van de tentamens van twee andere vakken. De bestuursrechter bevestigde de straf in hoger beroep: het gebruik van AI waarbij het inzicht in vaardigheden van de student onmogelijk wordt gemaakt, is in strijd met het examenreglement.
Het is niet de enige recente rechtszaak. Ook een masterstudent staats- en bestuursrecht werd deze zomer gestraft: zij werd een half jaar uitgesloten van haar studie na het grootschalig gebruiken van AI bij een schrijfopdracht.
UvA-richtlijnen
Volgens de richtlijnen van de UvA mogen commerciële AI-tools zoals ChatGPT nooit binnen onderwijscontext gebruikt worden, omdat deze niet voldoen aan de privacyregels van de UvA. Sinds 1 september 2025 beschikt de UvA daarom over een eigen AI-tool: UvA AI Chat, speciaal ontwikkeld voor studenten en docenten om op een verantwoorde manier generatieve AI te gebruiken binnen de onderwijscontext en die dus wel aan de privacyregels zou voldoen.
Ook met de UvA AI Chat geldt dat kunstmatige intelligentie studenten alleen mag ondersteunen, maar nooit hun werk mag overnemen. Het inleveren van niet-zelfgeschreven werk mag niet, tenzij nadrukkelijk anders vermeld. Docenten moeten immers altijd het inzicht, de kennis en de vaardigheden van de student zelf kunnen beoordelen, zo luidt het in de richtlijnen.
Breder beeld ontbreekt
Folia vroeg ook bij andere faculteiten na hoeveel fraudezaken AI-gerelateerd zijn. Daar kwam geen duidelijk beeld uit: verschillende faculteiten gaven aan (nog) geen overzicht te hebben of hebben niet gereageerd. Daarmee blijft onduidelijk hoe groot het probleem buiten de rechtenfaculteit is. Bij de Faculteit der Geesteswetenschappen (FdG) waren er bijvoorbeeld vorig academisch jaar 372 fraudemeldingen, waarbij de examencommissie ‘de indruk heeft dat het merendeel’ om het gebruik van AI ging.