Niks meer missen?
Schrijf je in voor onze nieuwsbrief!
Foto: Andy Kelly (Unsplash)
wetenschap

‘We moeten weg van het doemdenken over algoritmen’

Marleen Hoebe,
22 november 2019 - 11:46

Moeten we ons zorgen maken over steeds meer nieuwe zelflerende technologieën die kunstmatige intelligentie gebruiken? Zeker niet, zeggen docent Sennay Ghebreab en student Rik Helwegen die zich bezighouden met algoritmen. ‘Dat algoritmen discrimineren komt niet door de algoritmen zelf, maar door de gebruikers die soms geen idee hebben van de werking hiervan.’

Een Google-app die foto’s categoriseert, maar donkere mensen niet herkent of bij gorilla’s indeelt. Een algoritme waarmee e-commercebedrijf Amazon objectief een keuze probeert te maken tussen verschillende sollicitanten, maar daarvoor gebruik maakt van data uit een tijd waarin het bedrijf bijna alleen maar mannen aannam. Een Nederlandse gemeente die een algoritme inzet om bijstandsfraude op te sporen, maar dat algoritme vervolgens vooral gebruikt in wijken waar mensen met een migratieachtergrond wonen.

Foto: Daan Muller
Sennay Ghebreab

Het zijn een aantal voorbeelden van situaties waarin mensen algoritmen op een verkeerde manier gebruiken, waardoor algoritmen gaan discrimineren. ‘Dat is niet de fout van de algoritmen, maar van gebruikers van algoritmen die soms geen idee hebben van de werking,’ vertelt Sennay Ghebreab, UvA-neuroinformaticus en hoofd sociale wetenschappen aan de Amsterdam University College (AUC). ‘Het doemdenken rondom algoritmen wordt door dit soort gevallen vergroot; mensen worden bang en denken dat kunstmatige intelligentie het leven helemaal gaat verkloten of zelfs overnemen.’

 

UvA-alumnus Rik Helwegen ziet hetzelfde als Ghebreab. ‘Mensen zijn al snel geneigd een algoritme te zien als iets dat ze niet snappen, dat is zonde.’ Helwegen werkte tijdens zijn master Artificial Intelligence aan een methode om eerlijkheidseisen mee te nemen in machine learningMachine learning is een vorm van kunstmatige intelligentie die gebruik maakt van algoritmen om een computer te laten leren en te beslissen. Voorbeelden daarvan in het dagelijks leven zijn Spotify, Netflix en zelfrijdende auto’s.-modellen. Hij werkte samen met de gemeente Amsterdam en het Centraal Bureau voor de Statistiek (CBS) om de methode uit te werken.

 

Niets nieuws

Het klinkt misschien als een recente ontwikkeling, maar eigenlijk zijn algoritmen helemaal niets nieuws. ‘Het woord algoritme is afgeleid van een bekende grote denker uit de achtste/negende eeuw, Muhammad ibn Musa al-Khwarizmi,’ legt Ghebreab uit. ‘Hij hield zich toen al bezig met een berekenbare set van regels, een soort rekenrecept. Een algoritme is zo’n recept.’

‘Als we niet interdisciplinair werken, moeten we het wiel steeds opnieuw uitvinden. Dat leidt tot situaties waarin je algoritmen niet op de juiste manier ontwikkelt’

Ook wetenschappers zijn al heel lang met kunstmatige intelligentie bezig. Ghebreab: ‘Het risico van de populariteit van kunstmatige intelligentie is dat allerlei mensen en organisaties erop springen. Ze gaan het zich toe-eigenen; mensen gaan er zelf mee aan de slag zonder na te gaan of data waarmee algoritmen getraind worden eerlijk en representatief zijn, en zonder na te denken over maatschappelijke consequenties. Daarom is het zo belangrijk dat ontwikkeling, toepassing en toezicht van algoritmen in samenwerking met allerlei experts gebeurt, zoals op de bètafaculteit.’

 

Interdisciplinair en divers

‘In de wetenschap zeggen we allemaal wel dat interdisciplinariteit belangrijk is, maar als puntje bij paaltje komt, als je moet publiceren of een voorstel moet schrijven, doe je dat toch niet snel interdisciplinair,’ zegt Ghebreab. ‘In je eigen discipline zitten immers de journals met hoge impactfactor waar je makkelijk kunt scoren. Dat zorgt ervoor dat interdisciplinair onderzoek en onderwijs niet snel van de grond komen, hoewel er in de afgelopen jaren meer beweging in zit.’

 

(Lees verder onder de afbeelding)

Foto: Franki Chamaki (Unsplash)

Zelf heeft Ghebreab altijd geprobeerd om zich zo min mogelijk te laten verleiden tot die competitie. ‘Ik heb interdisciplinariteit altijd voor disciplinariteit gezet, ook als dat mijn eigen onderzoek schaadde. Als we niet interdisciplinair werken, moeten we het wiel steeds opnieuw uitvinden. Dat leidt onder andere tot situaties waarin je algoritmen niet op de juiste manier ontwikkelt en inzet, waardoor discriminatie ontstaat.’

 

Ook is er meer diversiteit bij de ontwikkeling van algoritmen nodig, volgens Ghebreab. ‘Als je vrouwen en andere minderheden, zoals migranten, in dit proces meeneemt, ben je scherper als je data gaat selecteren voor het ontwikkelen van algoritmen. Vrouwen zien bijvoorbeeld sneller gender-wanverhoudingen in data dan mannen.’

Foto: Sjoerd van der Hucht
Rik Helwegen

Verschil in dataverdeling tussen groepen

Die discriminatie door algoritmen komt onder andere doordat er verschillen zitten in de dataverdeling van verschillende groepen, zegt Helwegen. ‘Die verschillen kunnen ontstaan doordat de data op een bepaalde manier is verzameld. Als handhavers groepen verschillend behandelen, heeft dit effect op de data. Maar een verschil in verdeling kan ook komen door effecten die in de maatschappij spelen. De afkomst van een persoon kan bijvoorbeeld invloed hebben op waar deze persoon gaat wonen, en daarmee op de school waar diegene heen gaat, het educatieniveau dat hij of zij krijgt en vervolgens het salaris.’

 

‘Een algoritme is vaak bedoeld om onderscheid te maken tussen datapunten. Bij het tegengaan van discriminatie is het dus van belang om te kijken op basis waarvan het maken van onderscheid wel of niet gewenst is. Onderscheid op basis van etniciteit kan bijvoorbeeld uit ethische, politieke of juridische overwegingen ongewenst zijn.’ Helwegen bekijkt hoe je zo’n variabele buiten de resultaten kunt houden. ‘Lastig hieraan is dat de variabele waarvoor je wilt corrigeren mogelijk invloed heeft gehad op de waarden van andere variabelen.’ Helwegen heeft een algoritme ontwikkeld dat hiermee rekening houdt, maar moet het nog verder testen. Dit doet hij nu als CBS-medewerker.

‘Inmiddels beseffen mensen langzaam dat algoritmisch denken niet iets engs is, maar een belangrijke vaardigheid’

Ongelijkheid bestrijden met algoritmen

Ghebreab denkt dat je kunstmatige intelligentie ook kunt gebruiken om ongelijkheid bloot te leggen. Hij wil zich meer focussen op de maatschappelijke kant van kunstmatige intelligentie, daarom is hij nu bezig met het opzetten van het Civic AI Lab. ‘Er wordt momenteel veel aandacht besteed aan de ongelijkheid die algoritmen creëren in de samenleving, maar je kunt ze juist goed gebruiken om ongelijkheid tegen te gaan. Door algoritmen kunnen we namelijk ontdekken dat er bias in data zit.’

 

En burgers moeten weten wat algoritmen zijn, vindt Ghebreab. ‘Op de basisschool moeten kinderen al leren over kunstmatige intelligentie. Daarnaast moet het een core vak op de universiteit worden, net zoals Academic Writing. Op de AUC heb ik vijf jaar geleden het vak Computational/Algorithmic Thinking geïntroduceerd als een core vak, maar het werd helaas niet door iedereen omarmd als relevant. Inmiddels beseffen mensen langzaam dat algoritmisch denken niet iets engs is, maar een belangrijke vaardigheid. Ik wil weg van het doemdenken, daar hebben we helemaal niets aan.’