Kunstmatige intelligentie (artificial intelligence, AI) speelt bij veel bedrijven al op allerlei manieren een rol binnen HR-afdelingen. Bijna de helft van alle grote bedrijven in Nederland (met meer dan 500 medewerkers) gebruikt AI.  

Tegenwoordig kun je AI-tools gebruiken bij onder andere:

  • Cv’s beoordelen
  • Kandidaten beoordelen
  • Sourcing
  • Mogelijkheden in kaart brengen om een medewerker te promoveren
  • Geautomatiseerde berichten versturen naar sollicitanten  

“Je kunt het zo gek niet bedenken of er wordt een AI-tool voor gemaakt,” zegt Trey Causey, Head of Responsible AI en Senior Director of Data Science bij Indeed. 

De geavanceerdheid van deze tools is echter wisselend, net als de aandacht van de ontwikkelaars voor risico’s. Organisaties moeten zich bewust zijn van het risicospectrum bij het gebruik van AI en strategieën ontwikkelen om dit op een verantwoorde manier te doen. 

Met AI is het mogelijk om menselijke vooroordelen te verminderen, vooral in recruitment, en betere kansen te creëren voor medewerkers door repetitieve taken te stroomlijnen. Als resultaat kunnen HR-professionals zich richten op de meer menselijke aspecten van hun rol. AI kan echter ook inherente vooroordelen in stand houden en zelfs versterken en tijd en geld verspillen. 

Hier vind je vier stappen die organisaties kunnen nemen om risico’s in kaart te brengen en ervoor te zorgen dat hun AI-gebruik eerlijk, ethisch en effectief is.

1. Evalueer de risico’s en de voordelen voor je organisatie

Vraag je eerst af of AI-tools passen bij je bedrijf wanneer het om HR gaat. AI-systemen kunnen processen opschalen, zoals het identificeren en beoordelen van veel meer kandidaten dan handmatig te verwerken is. 

Er is ook een keerzijde. “Je kunt ook vergissingen en fouten opschalen, aangezien geen enkel systeem perfect is,” aldus Jey Kumarasamy, een medewerker van Luminos.Law, een op AI gericht advocatenkantoor. “Zelfs bij 90% nauwkeurigheid, wat hoog is, zal er bij het verwerken van duizenden sollicitaties een flink aantal sollicitaties onjuist worden beoordeeld.”  

Het uitgangspunt voor het evalueren van AI-gedreven HR-tools moet zijn dat de tools niet perfect zijn. “Vooroordelen zijn onvermijdelijk, dus bedrijven moeten een manier vinden om dat probleem aan te pakken, of ze moeten accepteren dat ze risico’s lopen,” zegt Causey. 

Sommige bedrijven accepteren het risico vanwege de hogere productiviteit. Andere vinden dat de potentiële foutmarge hun waarden in gevaar brengt of dat dingen te complex worden door de toenemende druk om aan allerlei regels te moeten voldoen. 

Wil je met AI doorgaan, denk dan goed na welke tools je kiest. AI waarmee je bijvoorbeeld transcripties van sollicitatiegesprekken kunt maken, is vaak een applicatie met een laag risico (alhoewel de tool slechte resultaten kan opleveren wanneer je ‘m gebruikt bij gesprekken met niet-moedertaalsprekers). AI waarmee je kandidaten beoordeelt op basis van hun prestaties in videogesprekken, heeft daarentegen wel risico’s. “Deze tool is waarschijnlijk het meest problematisch omdat er veel risico’s zijn en er van alles kan misgaan,” aldus Kumarasamy.

Het uiteindelijke doel van AI moet zijn: menselijke processen bevorderen en verbeteren, niet om ze te vervangen. Zorg dat je HR-team voldoende medewerkers heeft voordat je AI-tools gaat gebruiken, zodat mensen elke stap van een proces dat AI automatiseert, kunnen controleren. Laat cruciale HR-zaken over aan mensen, bijvoorbeeld definitieve recruitmentbeslissingen, promoties en ondersteuning van medewerkers. Als AI de alledaagse handelingen op zich neemt, hebben HR-professionals gelukkig veel meer tijd en flexibiliteit voor die taken.

2. Screen externe leveranciers die AI-gedreven tools aanbieden

Wanneer je hebt besloten welke AI-tools het beste voldoen aan de behoeften van je organisatie, kun je potentiële verkopers benaderen en specifieke vragen stellen, bijvoorbeeld: 

  • Hoe controleren ze hun systeem? Wanneer is het voor het laatst getest en welke statistieken zijn gebruikt?
  • Is de test intern uitgevoerd of door een externe groep?
  • Hoe worden vooroordelen bestreden? Als ze claimen dat hun systeem zorgt voor zo weinig mogelijk vooroordelen, wat betekent dat dan en hoe meten ze dat? 
  • Zijn er teststatistieken beschikbaar die je als potentiële klant kunt bekijken?
  • Bieden de leveranciers ook na de implementatie verschillende diensten aan, zoals opleidingen voor je medewerkers waardoor ze het systeem kunnen configureren en onderhouden?
  • Voldoen zij aan huidige en nieuwe regelgeving? “Ik sprak vorig jaar met een leverancier en vroeg of die voldeed aan een specifieke regelgeving en de leverancier bleek die niet te kennen,” vertelt Causey. Dit was niet alleen een waarschuwing, maar “het was overduidelijk rechtstreeks van invloed op hun product.” 
  • Werken ze mee aan door jou uitgevoerde AI-audits? “Wanneer je een AI-audit uitvoert, heb je mogelijk de hulp van een leverancier nodig. En meestal is dat niet het beste moment om erachter te komen dat je leverancier hier niet aan mee wil werken, of je geen documentatie of resultaten wil verstrekken,” aldus Kumarasamy.

3. Identificeer en monitor vooroordelen

AI-algoritmes zijn net zo onbevooroordeeld als de data die zijn gebruikt om ze te trainen. Werkgevers kunnen de manier waarop algoritmes worden ontwikkeld niet wijzigen, maar er zijn wel manieren om de tools vóór implementatie te testen. In opdracht van het ministerie van Binnenlandse Zaken stelde een team van onderzoekers van de Universiteit van Tilburg, de Technische Universiteit Eindhoven, Vrije Universiteit Brussel en het College voor de Rechten van de Mens, richtlijnen op over hoe organisaties die AI willen implementeren, kunnen voorkomen dat hun algoritmes discrimineren.

Organisaties kunnen ook aan de hand van een proces dat ‘contrafeitelijke analyse’ heet, zien hoe een AI-model reageert op verschillende inputs. Je kunt bijvoorbeeld proberen de naam van de kandidaat of de school waar deze op heeft gezeten, te veranderen als AI cv’s voor kandidaten evalueert: krijgt de kandidaat hierdoor een andere classificatie van het algoritme? 

“Dit gebeurt al sinds de jaren ’50. Sociologen stuurden cv’s naar werkgevers en veranderden steeds één ding in hun cv om te zien hoe verschillend het aantal reacties was,” vertelt Causey. “We kunnen dat met AI ook doen en veel bestaande sociaal-wetenschappelijke kennis binnenhalen over hoe we vooroordelen in AI-modellen kunnen evalueren.”

Monitor AI-systemen na implementatie voortdurend om mogelijke discriminerende patronen te identificeren en te corrigeren zodra ze bovendrijven en blijf op de hoogte van ontwikkelingen op het gebied van onderzoek over datawetenschap en AI. “Wanneer mensen die beslissingen nemen, is het moeilijk om te weten of ze bevooroordeeld zijn,” aldus Causey. “Je kunt niet in iemands hoofd kijken en achterhalen waarom iemand ja zei tegen deze kandidaat maar nee tegen een andere kandidaat. Bij een model kunnen we dat wel.”

Er is geen standaardset met tests om HR-tools op vooroordelen te controleren. Werkgevers moeten op z’n minst goed begrijpen hoe AI wordt gebruikt binnen de organisatie. Ze kunnen bijvoorbeeld een lijst met alle gebruikte AI-modellen bijhouden. Organisaties moeten vastleggen welke tools zijn geleverd door welke leverancier en ook de use cases voor elke tool. 

In het optimale scenario brengen audits verschillende afdelingen samen, inclusief interne juridische teams en datawetenschappers, naast externe adviseurs of auditors. Naleving en risicobeheer met betrekking tot implementatie van AI is essentieel

4. Blijf veranderende wetgeving voor

Geautomatiseerde HR-tools zorgen niet alleen voor potentiële reputatierisico’s en financiële risico’s. Er zijn ook juridische risico’s. De wetgeving in reactie op de verspreiding van AI op de werkplek ontwikkelt zich snel. 

Er is momenteel geen Nederlandse regelgeving met betrekking tot AI, maar de EU heeft onlangs de AI Act vastgelegd, de eerste uitgebreide AI-wetgeving ter wereld. In de Europese Unie heeft deze AI Act tot doel risiconiveaus toe te wijzen aan AI-applicaties gebaseerd op hun vermogen onveilig of discriminerend te zijn en ze vervolgens te reguleren op basis van hun beoordeling. In het huidige voorstel worden bijvoorbeeld AI-applicaties die cv’s scannen, beschouwd als ‘hoge-risico’-applicaties waarvoor strikte nalevingsvereisten gaan gelden.

In Nederland is het de Rijksinspectie Digitale Infrastructuur (RDI) die toezicht houdt op de ontwikkeling en juridische kwesties rond AI. De RDI houdt de ontwikkeling van regelgevende kaders nauwlettend in de gaten, op EU- en nationaal niveau. 

Daarnaast zijn er veel bestaande wetten, inclusief antidiscriminatiewetten, van toepassing op beslissingen met betrekking tot het al dan niet aannemen van kandidaten, genomen door AI. “De misvatting bestaat dat als een wet niet specifiek gericht is op AI-systemen, die niet van toepassing is op een AI-systeem,” zegt Kumarasamy. “Dat is niet waar, vooral wanneer we het over werk hebben.” Het maakt niet uit of de beslissing of je al dan niet wordt aangenomen voor een baan aan een mens of een AI-systeem is toe te schrijven: de organisatie is altijd aansprakelijk voor eventuele vooroordelen.

Beginnen met audits is prima, maar om echt klaar te zijn voor nieuwe regels en ervoor te zorgen dat je AI goed en eerlijk gebruikt, kun je het best een uitgebreider AI-governanceprogramma opzetten.

Governancesystemen leggen de principes van de organisatie met betrekking tot AI vast en creëren processen om continu tools te beoordelen en problemen te ontdekken en op te lossen. Indeed heeft bijvoorbeeld eigen principes voor het ethisch en nuttig gebruik van AI bij het bedrijf ontwikkeld en openbaar gepubliceerd. Indeed heeft ook een functieoverschrijdend AI-ethiekteam opgezet dat tools, systemen en processen bouwt om ervoor te zorgen dat technologie verantwoord wordt gebruikt.  

Zelfs met voorzorgsmaatregelen is de nieuwe generatie AI-tools complex en vatbaar voor fouten. 

Door echter moeite te doen om ze verantwoord te gebruiken, wordt het mogelijk om betere processen te bouwen. AI kan mensen helpen efficiënter en minder bevooroordeeld te zijn, maar alleen als mensen zorgen voor het nodige toezicht. Er zijn bijvoorbeeld mogelijkheden om kritisch na te denken over de parameters waarmee een AI-algoritme rekening moet houden bij kwalificaties voor vacatures, wat een grondige verbetering is van de manier waarop kandidaten worden beoordeeld. 

“Hoe komen we echt tot de kern van wat het betekent om succesvol te zijn in een functie?” vraagt Causey. Werven op basis van vaardigheden kan minder bevooroordeeld zijn dan vertrouwen op de naam van een school of bedrijf, iets waarop AI kan afstemmen op een manier die voor mensen misschien niet mogelijk is. “Een gelijk speelveld creëren voor werkzoekenden is echt mogelijk met AI,” aldus Causey.