28 maart 2023 - Manon Vermeulen

Het gebruik van AI bij een sollicitatieprocedure: vloek of zegen?

Sollicitanten kunnen een sollicitatieprocedure ervaren als een soort verkiezing. Werkgevers maken daarbij steeds vaker gebruik van vormen van artificiële intelligentie (‘AI’) om te (ver)kiezen wie uitgenodigd wordt voor een gesprek of de beste kandidaat is. Handig! Maar niet zonder risico’s. Het gebruik van AI bij sollicitatieprocedures kan leiden tot discriminerende uitkomsten. Waar moet je als werkgever op letten?

Juridisch kader sollicitatieprocedure

De sollicitatieprocedure is niet in de Nederlandse wet verankerd. Het proces van werving en selectie wordt genormeerd door een juridisch kader dat bestaat uit (i) wet- en regelgeving over gelijke behandeling en privacy van sollicitanten, (ii) algemene beginselen zoals goed werkgeverschap, contractsvrijheid en zorgvuldigheid, maar ook door (iii) normen uit jurisprudentie, de NVP Sollicitatiecode en oordelen van het College voor de Rechten van de Mens.

De persoonlijke voorkeuren of vooroordelen van een werkgever moeten buiten beschouwing blijven bij de beoordeling of een sollicitant geschikt is voor de functie. Om een zo objectief mogelijke beslissing te kunnen maken, kiezen werkgevers voor de hulp van AI.

Het gebruik van AI bij een sollicitatieprocedure

AI is technologie waarbij een kunstmatige vorm van intelligentie wordt gecreëerd. Dit maakt het mogelijk om een algoritme – een set van instructies dat ingevoerde data (input) omzet in een bepaalde uitkomst (output) – zichzelf autonoom te laten functioneren, aanpassen en verbeteren.

Vrijwel alle werkgevers gebruiken in meer of mindere mate algoritmes voor werving en selectie, zo blijkt uit een onderzoek van het College voor de Rechten van de Mens. AI-gedreven algoritmen worden bijvoorbeeld ingezet om kandidaten te selecteren en vacatures aan te bieden via digitale platforms of sociale media. Het is snel, efficiënt en vergroot de kans op een goede match. Bovendien zou het gelijke behandeling en eerlijke kansen op de arbeidsmarkt moeten bevorderen.

Dat gaat niet altijd goed, zo liet een zaak die speelde bij Amazon zien. Het selectiealgoritme van Amazon dat de beste 5 kandidaten uit 100 sollicitanten zou moeten selecteren was gebaseerd op het werknemersbestand van Amazon van de afgelopen jaren, waarin veel technische functies door mannen werden uitgeoefend. Het algoritme bleek op basis van die informatie een voorkeur te hebben voor mannen en discrimineerde vrouwen.

Recent ging het ook verkeerd bij de Vrije Universiteit van Amsterdam (‘de VU’). De casus hield niet direct verband met werving en selectie, maar bood een mooi inzicht in de consequenties van het gebruik van AI. Een studente van de VU is mogelijk gediscrimineerd als het gevolg van inzet van ‘antispieksoftware’ bij het surveilleren van online tentamens in de coronaperiode. De VU heeft al meerdere pogingen gedaan om het vermoeden van indirect onderscheid vanwege de huidskleur van de studente te weerleggen, maar is er (voor zover bekend nog) niet in geslaagd te bewijzen dat niet in strijd met de AWGB is gehandeld.

Risico op discriminatie en bewijsproblemen door het gebruik van AI

Risico’s op discriminatie door het gebruik van AI-gedreven algoritmen worden veroorzaakt door bias in algoritme en/of (onbetrouwbare) data dat wordt gebruikt. Wegens de complexiteit en ondoorzichtigheid van AI-gedreven algoritmen kan, zowel voor werkgevers als sollicitanten, een gebrek aan transparantie ontstaan in de vorm van een zogeheten black box. Besluitvorming kan daardoor mogelijk lastig te verantwoorden zijn of maakt discriminatie zelfs niet (of in mindere mate) zichtbaar. Dit kan bewijsproblemen opleveren voor sollicitanten die mogelijk zijn gediscrimineerd door AI-gedreven algoritmen, maar voor het tegenbewijs van werkgevers.

De sollicitant draagt immers in beginsel de bewijslast en zal feiten moeten aanvoeren die discriminatie kunnen doen vermoeden. Indien dat vermoeden van onderscheid aannemelijk is, verschuift de bewijslast naar de werkgever die dit vermoeden vervolgens dient te weerleggen.

Normering door het College voor de Rechten van de Mens

Het College voor de Rechten van de Mens heeft in de zaak van de VU de ‘gedragingen’ van (een door) software (toegepast algoritme) centraal gezet en de inzet daarvan genormeerd. Dat mogelijk onderscheid door software wordt gemaakt doet niet af aan de plichten die voortvloeien uit de gelijkbehandelingswetgeving. De universiteit heeft een eigen verantwoordelijkheid om ervoor te zorgen dat de middelen die worden ingezet geen verboden onderscheid maken.

Hetzelfde juridische kader geldt voor een werkgever die AI gebruikt bij een sollicitatieprocedure. Als blijkt dat sprake is van (een vermoeden van) (in)direct onderscheid door de inzet van AI, dan moet de werkgever – gelet op de verlichte bewijslast – bewijzen dat niet in strijd is gehandeld met de wet. Discriminatie van sollicitanten door AI en mogelijke bewijsproblemen komen uiteindelijk voor rekening van de werkgever.

Aandacht voor AI en algoritmes in de NVP Sollicitatiecode

In de NVP Sollicitatiecode zijn uitgangspunten geformuleerd die werkgevers in acht (zouden) moeten nemen en verder kunnen concretiseren voor een specifieke situatie. Werkgevers die bij de sollicitatieprocedure gebruik maken van AI, moeten rekening houden met artikel 3.4:

Indien de organisatie bij een voorselectie gebruik maakt van data recruitment, zoals bijvoorbeeld een digitaal assessment, Artificiële Intelligentie (A.I.) of algoritmes, dienen deze gevalideerd en transparant te zijn. Bij de organisatie die gebruik maakt van A.I en algoritmes dienen de mogelijke risico’s en tekortkomingen daarvan duidelijk te zijn. Te allen tijde dient de zorgvuldigheid en vertrouwelijkheid te worden gewaarborgd en mogen geen vragen gesteld worden met betrekking tot gezondheid. De sollicitant ontvangt na deelname een gemotiveerde uitslag, wanneer de sollicitant daarom verzoekt.

Waar moet je als werkgever op letten?

Wees je bewust van de risico’s van de inzet van AI en kritisch op de uitkomst daarvan. De blackbox-problematiek en bias in algoritmen en/of data zijn bekende knelpunten van complexe en ondoorzichtige algoritmes, en mogelijke oorzaken voor (algoritmische) discriminatie.

Werkgevers doen er verstandig aan gebruik te maken van gevalideerde technologie, extra eisen te stellen ten aanzien van transparantie van het gebruik en controle van resultaten daarvan, en een zorgvuldige klachtenbehandeling te waarborgen.

Een gezonde combinatie van het gebruik van AI en de ‘menselijke maat’ blijft belangrijk.