RAIS

Discriminatie op de arbeidsmarkt, vooral tijdens rekrutering en selectie, is een wezenlijk probleem. Artificiële intelligence (AI) kan hierin een oplossing bieden, door patronen te analyseren en objectieve(re) selectiecriteria vast te leggen. Deze innovatie is echter enkel een meerwaarde wanneer we AI inzetten op een ethische manier en de mens centraal blijven stellen. Het onderzoeksproject RAIS wil een antwoord bieden op de vraag: Hoe kan je rekening houden met mogelijke vooroordelen en structurele ongelijkheden tijdens de ontwikkeling van een AI-systeem bedoeld ter ondersteuning van een selectie- en rekruteringsprocedure?

De rol van AI in het reduceren van bias in rekrutering en selectie

Een diverse en niet-discriminerende arbeidsmarkt is een van de cruciale pijlers voor een inclusieve samenleving. Discriminatie op de arbeidsmarkt is (nog steeds) een wezenlijk probleem op het vlak van onder andere leeftijd, origine, seksuele geaardheid en andere factoren. Deze ongelijkheid speelt zich af op verschillende vlakken binnen de arbeidsmarkt en niet in het minst tijdens rekrutering en selectie. Artificiële intelligence (AI) kan hierin een oplossing bieden door patronen te analyseren en objectieve(re) selectiecriteria vast te leggen. AI kan namelijk een berg data razendsnel verwerken. Hierbij is het wel essentieel om AI op een ethische manier in te zetten en de mens centraal te stellen (human centered AI). 

Onbedoelde bias kan een AI-algoritme binnensluipen waardoor het op een systematische en oneerlijke wijze bepaalde personen discrimineert. Er bestaat niet zoiets als een neutraal algoritme. Het creëren van iets nieuws brengt onvermijdelijk keuzes met zich mee en die keuzes bepalen mee de eigenschappen van het eindproduct. Deze keuzes worden (te) vaak enkel gemaakt door de technische ontwikkelaars, die niet (altijd) de meeste kennis hebben over het onderwerp waarvoor het algoritme een oplossing biedt.

Ondanks dit uitgangspunt worden aanbevelingen en selecties, gemaakt door een algoritme, gewoonlijk gepresenteerd alsof ze inherent vrij zijn van (menselijke) vooroordelen, enkel en alleen omdat de beslissingen ‘gebaseerd zijn op gegevens’. Dit is een misvatting. Er is grote noodzaak om bij aanvang van de ontwikkeling van een AI-algoritme voldoende ondersteuning en aandacht te schenken aan potentiële bias en onbedoelde neveneffecten, en niet enkel vanuit een technisch oogpunt. 

Doel

Binnen dit project ontwikkelen we een instrument dat bedrijven in staat stelt na te denken over een non-discrimenerende manier om AI in te zetten als ondersteunende tool in het selectie- en rekruteringsproces. De toolontwikkeling binnen ons project gebeurt aan de hand van de principes van design thinking. We werken met een verkennende fase (begrijpen en definiëren), een exploreer-fase (ideatie en bouwen van prototype) en de testfase (testing).

Resultaten

 Het eindproduct van dit project is driedelig: 

  • Een verkennende trendanalyse rond het inzetten van AI binnen het selectie- en rekruteringsproces in België
  • Een kaartspel waarbij we inzetten op het voorkomen van bias (laagdrempelig, in teamverband) 
  • Een workshop en bijbehorend materiaal (kan zelfstandig gebruikt worden, of onder begeleiding), nauw aansluitend op de inhoud van het kaartspel, inclusief checklist 

Projectmedewerkers

Timing

Het onderzoeksproject RAIS loopt van 1 januari 2021 tot 31 december 2021. 

Partners

De opdrachtgever van dit project is de cel Gelijke Kansen van de FOD Justitie. 

 

 

Marijke Brants
Onderzoeker duurzaam ondernemen, Creative & Innovative Business
T + 32 (0)15 68 88 56