Niks meer missen?
Schrijf je in voor onze nieuwsbrief
Foto: Marc Kolle
opinie

Pepijn Stoop | Laten we mensen leren om AI-branden te blussen

Pepijn Stoop ,
2 februari 2024 - 11:00

Het is zorgelijk dat veel mensen nepbeelden die zijn gemaakt met behulp van kunstmatige intelligentie niet van echt kunnen onderscheiden, betoogt Pepijn Stoop. ‘Een gemiste kans, want hoewel deze foto’s perfect lijken, maakt AI geregeld missers.’

Vorige week zorgden beelden van een brandende Eiffeltoren voor een stortvloed aan bezorgde berichten op sociale media. Klein detail: er stond niets in de fik, want de beelden waren gegenereerd door AI. Het maken van nepbeelden met AI wordt steeds simpeler, maar ze herkennen blijft voor veel mensen een uitdaging. AI-onderzoekers zouden zich meer op dit menselijke aspect moeten focussen, in plaats van het probleem op te proberen te lossen met meer AI.

 

Vijf jaar geleden beleefde ik mijn eerste kennismaking met AI gegenereerde video’s, ook wel deepfakes genoemd. Een kennis liet mij toen zien hoe hij met zijn indrukwekkende computer set-up het hoofd van een tierende Gordon Ramsey in een Hell’s Kitchen aflevering verving door dat van mijn dispuutsgenoot. Hoewel het een grap was en de kwaliteit beter kon, bleef ik me er nog weken over verbazen.


Sindsdien is er een enorme verschuiving geweest. Iedere leek met een smartphone kan de Eiffeltoren in brand zetten en hoewel de Gorden Ramsey morph nooit de wereld over is gegaan, doen AI-foto's en video’s dat nu vaak wel. Jammer genoeg zijn niet al deze beelden net zo lollig bedoeld als de Hell’s Kitchen video. Zo moest het platform X deze week ingrijpen nadat AI-naaktfoto’s van Taylor Swift massaal werden gedeeld en tijdens de rellen in Parijs van afgelopen jaar verspreidden nepbeelden van Macron gericht desinformatie.

‘Nepfoto’s van de Franse president Macron werden opgemerkt doordat hij soms twaalf vingers had’

De oplossing van de AI-wetenschap voor dit probleem, is meer AI: nepbeeld-detectoren worden vaak genoemd als redmiddel in de strijd tegen nepbeelden. Toch blijken die niet altijd te werken, bijvoorbeeld bij foto’s van lagere kwaliteit, en wordt deze detectie niet gebruikt door platforms als TikTok die deze nepbeelden een podium geven. 


Aandacht voor neppe naaktfoto’s van popsterren en deepfakes is er in ieder geval genoeg: beelden worden gretig gedeeld, met alle gevolgen van dien. Toch ervaar ik dat niet-AI'ers vaak niet weten hoe je deze beelden kunt onderscheiden van ‘echte’ beelden. Een gemiste kans, want hoewel deze foto’s perfect lijken, maakt AI geregeld missers.


Zo blijft AI slecht in het creëren van handen: die nepfoto’s van president Macron werden opgemerkt doordat hij soms twaalf vingers had. De Eiffeltoren-brand werd weer ontkracht doordat de deepfakes er te opgepoetst uitzagen, veroorzaakt door AI die moeite heeft met het nabootsen van textuur.


Uiteindelijk zijn al deze tips mediawijsheden in een nieuw jasje. Zoals we inmiddels allemaal weten dat je niet ‘welkom123’ als wachtwoord moet kiezen, vind ik dat niet-AI'ers zouden moeten leren hoe nepbeelden eruitzien en hoe je ze zelf kunt herkennen. Hierin zouden AI-experts en wetenschappers, die deze technieken tenslotte de wereld in hebben gebracht, het voortouw moeten nemen. Het huidige onderzoek is te veel gericht op het ontwikkelen van detectie en te weinig op de menselijke waarneming van AI-beelden en het ontwikkelen van bijvoorbeeld trainingsprogramma’s.


We kunnen onze onderzoeksfocus veranderen, en dat zijn we ook verplicht aan de samenleving die we hebben geleerd om AI-branden te creëren, maar niet om deze te blussen.