Opinie&Analyse
Vivianne Bendermacher

Column: De recruitmentmachine beteugeld

We kennen de verhalen allemaal wel: onbewuste vooroordelen (bij mannen én vrouwen) kunnen het voor vrouwen extra lastig maken op de arbeidsmarkt. Om een van de vele onderzoeken hiernaar uit te lichten: functies die geassocieerd worden met een hoog intellect, vinden mannen én vrouwen onbewust geschikter voor… mannen.

Dat vooroordeel begint zelfs al heel jong. Zo moeten kinderen tussen de vijf en zeven jaar oud tijdens een test een nieuw spelletje spelen ‘voor hele, hele slimme kinderen’. Toen ze vervolgens een team moesten samenstellen, ging de voorkeur uit naar jongens in plaats van meisjes.

Maar hoe los je dat probleem van vooroordelen nou op bij het rekruteren van geschikte kandidaten voor een functie? Door de mens uit de kandidatenselectie te halen. Artificial Intelligence (AI) to the rescue! Want AI maakt het niet uit of iemand man of vrouw is. Dat ook dat niet waar is, weten we dankzij meerdere schandalen. Zoals dat van Amazons AI-recruitmentsysteem dat vrouwen benadeelde. Dat kwam doordat het systeem was getraind met data van de afgelopen tien jaar. En zoals te verwachten hadden in dat decennium veel meer mannen dan vrouwen gesolliciteerd, wat logischerwijs ook resulteerde in meer matches met mannen. Aha, dacht het algoritme: mannen zijn dus geschikter dan vrouwen en gaf vrouwelijke sollicitanten bijgevolg een minnetje achter hun naam.

Om dat vooroordeel te verhelpen moet je de historische gegevens waarop het algoritme zich baseert dus misschien wel manipuleren. Bijvoorbeeld door het aantal vrouwen dat in het afgelopen decennium is aangenomen, gewoon dubbel te laten tellen. Dan ziet het systeem evenveel mannen en vrouwen. Opgelost toch? Nog niet helemaal, want door de vrouwen simpelweg te verdubbelen creëer je geen diverse groep. De (echte) mannen hebben een veel gevarieerder achtergrond dan de gedubbelde vrouwen. Dat kan weer leiden tot andere vooroordelen. Niet fijn.

Dan moet je er gewoon voor zorgen dat het algoritme niet weet of iemand een man of vrouw is. Opgelost! Misschien… Al kun je natuurlijk uit meer dingen afleiden dat iemand een man of een vrouw is dan door puur een gendervinkje uit te zetten. Iemand die eerder secretaresse was of op hoog niveau in het vrouwenhockeyteam speelde, zal wel geen man zijn… En bepaalde studierichtingen, waar vrouwen oververtegenwoordigd zijn, kunnen ook weer iets verraden. Kortom: het is heel lastig om zeker te weten dat algoritmes geen genderbias meer hebben.

Stapje verder. Dat AI-systeem spuugt vervolgens de ‘meest geschikte kandidaten’ uit.

Laten we ervan uitgaan dat dat toch evenveel mannen als vrouwen zijn. Vervolgens gaan die kandidaten in gesprek met mensen; die misschien dan toch weer op basis van onbewuste vooroordelen voor mannen kiezen, in plaats van voor vrouwen (want het was een functie voor ‘hele, hele slimme mensen’). Het leidt tot een match met een man; wat weer wordt teruggekoppeld aan het algoritme, zodat dat volgende keer nog beter weet wat wij mensen willen...

Nu weten wij mensen al een tijdje dat we aan onbewuste vooroordelen lijden. Als het goed is, doen we al ons best om daarop te corrigeren. Ons grootste risico? Te veel vertrouwen op de objectiviteit van AI, waardoor we onze eigen correctieteugels te veel laten vieren en onbewuste vooroordelen niet meer actief tegengaan. Zo kan AI onze menselijke eigenschappen juist versterken, in plaats van ons helpen deze tegen te gaan.

Ontvang de nieuwsbrief, binnenkort 2 keer per week

Meld je nu aan!

Gratis proefabonnement TW

Bestel nu 2 gratis proefnummers TW