‘We moeten erkennen dat AI-systemen bedoeld zijn om te discrimineren’
Aan kunstmatige intelligentie kleven allerlei risico’s, zoals discriminatie. Daarom pleit promovendus Joris Krijger, die onderzoek doet naar de ethische aspecten van AI, voor een bredere blik, vertelt hij in EM TV. “Ik denk dat het gevaarlijk is.”

Joris Krijger in gesprek met presentatrice Feba Sukmana.
Afbeelding door: Lukáš Holub
Krijger, promovendus bij de Erasmus School of Philosophy, ziet dat er in de praktijk al regelmatig gediscrimineerd is door kunstmatige intelligentie in te zetten. “Ik denk dan bijvoorbeeld aan een AI-toepassing die werd gebruikt voor personeelszaken bij Amazon. Dat systeem werd gebruikt om cv’s te screenen, en het systeem werd getraind met historische gegevens van de afgelopen tien jaar. De AI concludeerde op basis van die trainingsdata dat vrouwen niet geschikt zijn voor technische posities. En dus gooide het automatisch alle vrouwelijke kandidaten eruit.”
Nuttig hulpmiddel
Volgens Krijger moet zo’n incident er niet toe leiden dat we geen AI meer gebruiken, maar wel tot meer bewustzijn over hoe AI werkt. “We moeten erkennen dat deze systemen bedoeld zijn om te discrimineren. We zeggen allemaal dat we geen algoritmes willen die discrimineren, maar dat is precies hun doel in statistische zin: dat ze onderscheid maken in data. En daarbij zijn ze een heel nuttig hulpmiddel, bijvoorbeeld om te bepalen wie wel of niet een lening krijgt, wie een hoog risico heeft om fraude te plegen en wie niet.”
Ongewenste patronen in AI-systemen zijn vaak afkomstig uit de trainingsdata, die weer rechtstreeks uit de maatschappij komen. “En we hebben geen volmaakt eerlijke samenleving.” Krijger noemt het repliceren van die ongelijkheid in de systemen ‘gevaarlijk’. “Je automatiseert daarmee de status quo, die niet voor iedereen gunstig is, en daarmee vergroot je bestaande ongelijkheden.”
Legitieme kenmerken
Dus moet de samenleving discussiëren over hoe die systemen eerlijker kunnen. Die vragen zijn niet technisch van aard, maar ethisch, legt Krijger uit. “We moeten ethisch en kritisch nadenken over wat legitieme kenmerken zijn om een onderscheid op te baseren.”
Volgens Krijger is de Erasmus Universiteit al druk bezig om de manier waarop AI gebruikt wordt te verbeteren. “De belangrijkste stap is erkenning dat het geen strikt technische kwestie is, maar dat je binnen een organisatie structuren en processen nodig hebt om deze ethische vragen op te pakken.”
Bekijk hieronder het interview met Joris Krijger in EM TV:
De redactie
-
Feba SukmanaRedacteur
-
Elmer SmalingRedacteur
Meest gelezen
-
Canvas down: ‘Dit had niet op een slechter moment gekund… Vandaag is mijn deadline’
Gepubliceerd op:-
Onderwijs
-
-
Harde ontploffing in transformatorruimte veroorzaakte stroomstoring bij Erasmus Sport
Gepubliceerd op:-
Campus
-
-
Protest op campus tegen diplomatie met Iraans regime
Gepubliceerd op:-
Protest
-
Reacties
Reacties zijn gesloten.
Meer EM TV
-
Hoe niet-Europese studenten gebukt gaan onder een verdubbeling van hun collegegeld
Gepubliceerd op:Type artikel: Video-
EM TV
-
-
EM TV newsflash: Maatregelen tegen antisemitisme, EUR’s eigen ChatGPT en een positief oordeel van de NVAO
Gepubliceerd op:Type artikel: Video-
EM TV
-
-
Hoe word je een Rotterdammert: Defne leert uitdrukkingen: ‘Tebbie nou op je muil?’
Gepubliceerd op:Type artikel: Video-
EM TV
-