Het AI Safety Initiative Amsterdam (AISA), dat werd opgericht aan de UvA wegens zorgen over het gebruik van kunstmatige intelligentie, viert in september zijn eerste verjaardag. Hoe is dit jaar waarin de bezorgdheid voor de risico’s van kunstmatige intelligentie aan de UvA toenam, voor het initiatief verlopen? ‘We moeten waarborgen dat we AI ontwikkelen die gunstig en veilig is voor ons voortbestaan’.
Deze maand is het een jaar geleden dat het AI Safety Initiative Amsterdam (AISA) werd opgericht. Dit initiatief, dat zich richt op veilig gebruik van kunstmatige intelligentie (AI), ontstond vanwege de groeiende zorgen over de risico’s van deze technologie. Folia sprak medeoprichter en AI-promovendus Leonard Bereska (30) over de razendsnelle groei van het initiatief, de urgentie van het onderzoeken van AI-veiligheidsrisico’s en de toekomstplannen van AISA.
Het doel van AISA is om onderzoek en het debat over veilige AI binnen de UvA op de kaart te zetten, legt Leonard uit. ‘Het draait erom dat we waarborgen dat wij, UvA-studenten en UvA-onderzoekers AI ontwikkelen die gunstig en veilig is voor ons voortbestaan. We moeten dus alle potentiële risico’s overwegen en onderzoeken, hoe sciencefictionachtig die ook lijken.’
Groeiende zorgen
Met ‘sciencefictionachtig’ doelt Leonard op toekomstscenario’s waarin autonome AI-systemen, die zelfstandig beslissingen nemen zonder menselijke tussenkomst, menselijke intelligentie voorbijstreven, onder wetenschappers ‘AGI’ genoemd. Bijvoorbeeld volledig zelfstandige rijdende auto’s. Of taalmodellen die, zoals Leonard voorspelt, ‘in de toekomst het grootste deel van mijn huidige onderzoeksactiviteiten kunnen automatiseren.’
Door de snelle doorbraken van deze AI-taalmodellen als ChatGPT van de afgelopen twee jaar werden UvA-wetenschappers ineens bewust hoe snel ontwikkelingen binnen de kunstmatige intelligentie kunnen gaan, vertelt Leonard. Aan de UvA groeiden afgelopen jaar de zorgen over AI-plagiaat door studenten en UvA-onderzoekers ondertekenden samen met AI-grootheden als Elon Musk een brief waarin ze waarschuwden voor een scenario waarin AI het voortbestaan van de mensheid zou kunnen bedriegen.
Het bezorgde Leonard en een aantal andere promovendi aan de UvA een ‘wake-up call’ over het gevaar van deze koortsachtige voortuitgang, waaronder het scenario dat eerder in die brief werd beschreven. ‘De mogelijkheid dat toekomstige geavanceerde AI-systemen als AGI allesverwoestende en onomkeerbare schade veroorzaken is reëel. En dat deze systemen er in 2027 al zijn, is niet onwaarschijnlijk. Dat biedt veel kansen, maar we moeten er ook voor zorgen dat ons begrip van deze systemen en ons vermogen om ze te controleren gelijkloopt met deze ontwikkelingen.’
Veel competitie
Voor deze promovendi was dit het startsein om studenten en onderzoekers samen te brengen om serieus te discussiëren over AI en de bijbehorende veiligheidskwesties. Een gedurfde stap op de Science Park campus waar de competitie binnen het AI-onderzoek hoog is, volgens Leonard, en wat soms samenwerkingsinspanningen kan belemmeren.
‘Aan de UvA en veel andere instellingen ligt de nadruk sterk op technische doorbraken die de mogelijkheden van AI vergroten,’ merkt Leonard op. ‘Hoewel dat belangrijk is, vragen de veiligheidsuitdagingen van AI om grootschalige, interdisciplinaire samenwerking en misschien zelfs een nieuwe definitie van wat we onder vooruitgang verstaan.’
Toch kreeg AISA die samenwerking tussen studenten en onderzoekers binnen korte tijd van de grond. De leden van het initiatief organiseerden meerdere lezingen en paneldiscussies over gloednieuw, baanbrekend veiligheidsonderzoek. Een grote stap, aangezien een openlijk academisch debat over ‘sciencefictionachtige’ AI-systemen tot een jaar geleden nog ongehoord was aan de UvA, volgens Leonard.
Hoe kreeg AISA dit zo snel voor elkaar? Volgens Leonard door een gemeenschap te bouwen die het onderwerp vanuit verschillende invalshoeken benadert. ‘AI-veiligheid is complex en vereist zowel technische, ethische als maatschappelijke overwegingen. Er zijn talloze scenario’s te onderzoeken, van kwaadwillig tot onbedoeld verkeerd gebruik van AI-systemen. Ons doel is om een diverse gemeenschap samen te brengen die deze uitdagingen aanpakt.’
Jong vakgebied
De uitdaging was dat AI en veiligheid als vakgebied pas sinds twee jaar serieus wordt genomen en daarom nog niet voorkwam in de AI-opleidingen van de UvA. Hoe trek je enthousiaste studenten aan als ze nog nooit van het onderwerp hebben gehoord? Leonard besloot docenten persoonlijk te benaderen met de vraag of AI Safety een plek in hun vakken kon krijgen.
Curriculumontwikkeling aan de UvA vindt meestal achter de schermen tussen docenten en commissies plaats. Leonard wist dus niet zeker of een vergelijkbaar initiatief eerder was geslaagd, maar AISA lukte het wel. ‘Ik was aangenaam verrast door hoe open docenten stonden voor onze input. Het is zo’n jong vakgebied, dus dat AI-veiligheid nu al in het curriculum is opgenomen, is een geweldige prestatie,’ aldus Leonard.
De aandacht voor AI en veiligheid in het curriculum, net als mond-tot-mondreclame op Science Park, wierpen hun vruchten af. AISA groeide van een handjevol onderzoekers naar een groep van zestig studenten en promovendi. Iets wat Leonard gezien hoe jong het veld nog is en dat nog weinig UvA-onderzoekers zich er formeel mee bezighouden, niet had verwacht: ‘Ik had wel verwacht dat onderzoekers zich ermee bezighielden, maar was verbaasd over hoeveel specifiek studenten geïnteresseerd waren in het onderwerp. De grootste zorgen over AI-veiligheid kwamen echt bij hen vandaan.’
Inmiddels stoomt AISA ook de volgende generatie onderzoekers klaar. AI-studenten kunnen bij het initiatief aankloppen voor ondersteuning bij hun onderzoek. Dit is hard nodig, want onderzoek naar AI en veiligheid roept vaak complexe ethische vraagstukken op, vertelt Leonard. ‘Om AI-risico's te begrijpen, moeten we werken met geavanceerde modellen die ons kunnen misleiden,’ legt hij uit. Hij noemt als voorbeeld een taalmodel dat overtuigend leugens kan verkopen aan een gebruiker. Soortgelijk onderzoek brengt volgens hem ethische dilemma's met zich mee, vergelijkbaar met die van virologisch onderzoek waarbij virussen gevaarlijker worden gemaakt. ‘Het vergroten van de capaciteit van AI-modellen verhoogt ook het risico dat ze onbedoeld schade aanrichten. Dat is soms een lastige afweging,’ geeft hij toe.
AISA hoopt in de komende collegejaren een mentorprogramma te lanceren om ervaren AI-onderzoekers te koppelen aan UvA-studenten die zich willen verdiepen in AI en veiligheid. Hij hoopt hiermee meer studenten te kunnen helpen met hun onderzoek en benadrukt dat gezien de snelheid waarmee superintelligente AI op ons afkomt, het opleiden van de volgende generatie onderzoekers cruciaal is. ‘Ik maak me zorgen of we op tijd gaan zijn om de risico's van autonome, superintelligente AI te beheersen. De samenleving is daar nog niet op voorbereid.’
Toch blijft Leonard optimistisch. Hij gelooft dat we een doemscenario kunnen voorkomen, mits we in actie komen. ‘Tijdens de COVID-pandemie konden we snel schakelen toen eenmaal de urgentie duidelijk was. Dat kunnen we met AI-veiligheidsrisico’s ook doen, maar dan moeten we nú aan de slag.’