Nieuws Arbeidsmarkt

Zelflerende algoritmes potentieel gevaar voor werkgevers bij solliciatiebeleid

Als een algoritme fouten maakt waardoor discriminatie ontstaat bij het selectiebeleid van nieuw personeel, blijft de werkgever verantwoordelijk. Ook als dit niet bewust is gedaan door de werkgever en het algoritme dit zichzelf is gaan aanleren. Zo blijkt uit een publicatie van het College voor de Rechten van de Mens.

Van onze redactie 9 december 2021

Sollicitatie algoritme werving personeel werkgever

Afbeelding ter illustratie. Bron: Shutterstock.

Jacobine Geel, voorzitter van het College, licht toe: ,,Algoritmes kunnen zowel direct als indirect verboden onderscheid maken. Als ze bijvoorbeeld selecteren op gronden van leeftijd, geslacht of ras, dan is dat direct verboden onderscheid. Maar algoritmes kunnen ook indirect discrimineren. Een voorbeeld: een uitzendbureau dat alleen maar studenten werft, maakt geen direct onderscheid op leeftijd, maar indirect wel aangezien de meeste studenten jong zijn.”

Gevaar zelflerende algoritmes

In het gelijkebehandelingsrecht telt het discriminerende effect. Dat wil zeggen dat het niet uitmaakt of de werkgever opzettelijk discrimineert of niet. Als het algoritme discrimineert, dan is de werkgever verantwoordelijk, volgens Geel. ,,Dat is zelfs het geval als een zelflerend algoritme aanvankelijk niet discrimineerde, maar in de loop van de tijd wel verboden onderscheid is gaan maken, zonder dat de werkgever of de algoritmebouwer zich hiervan bewust is."

,,Het gaat om het effect in de praktijk. Of een sollicitant nu door een mens of een computer wordt gediscrimineerd, de uitkomst is hetzelfde. Juist omdat het bij een algoritme lastig is te achterhalen of er sprake was van discriminatie, is het van belang dat werkgevers zich bewust zijn van hun verantwoordelijkheid.”

Lees ook: Strijd tegen discriminatie op arbeidsmarkt: Equalture komt met certificaten

Niet-transparante algoritmes maken het werkgever moeilijk

Algoritmes kunnen erg complex worden. Daardoor is het lastig vast te stellen waarom bepaalde kandidaten zijn afgewezen en is het ook lastiger voor werkgevers om verboden onderscheid te ontdekken of te vermijden. Het kan voor werkgevers een flinke klus zijn om zich voor een algoritme te verantwoorden.

En het wordt nog ingewikkelder omdat in heel specifieke situaties indirect onderscheid wel is toegestaan. Zo is het uitsluiten van kandidaten die geen goed Nederlands spreken in bepaalde gevallen acceptabel, bijvoorbeeld als de functie vraagt dat de kandidaat veel contact onderhoudt met Nederlandse klanten.

Lees ook: Solliciteren via een game: 'Dat zegt meer over competenties dan een cv'

Om ervoor te zorgen dat algoritmes uitlegbaar zijn is een inzichtelijke, controleerbare en systematische procedure een voorwaarde. Dat is iets waar het College in zijn oordelen over offline sollicitaties ook altijd naar kijkt. Dit betekent onder andere dat de sollicitanten van te voren weten hoe de procedure verloopt, wat de selectiecriteria zijn, waarom sommige mensen worden afgewezen en dat de procedure voor alle kandidaten in principe hetzelfde verloopt. AIs een procedure niet inzichtelijk, controleerbaar en systematisch uitgevoerd wordt, dan draagt dit bij aan het vermoeden dat er sprake is van discriminatie.

Blijf op de hoogte van het laatste nieuws voor ondernemers.

Ontvang dagelijks onze nieuwsbrief en blijf op de hoogte van het laatste ondernemersnieuws