Talent in een vruchtbare bodem: AI en ingebouwde vooroordelen

Employer Branding en Recruitment, Diversiteit en Inclusie voor Talentontwikkeling in een eerlijker wereld (4/5)

SparQle VP

In deze serie van artikelen onderzoeken we de huidige problemen met betrekking tot diversiteit, inclusie en talentontwikkeling in de arbeidsmarkt. We bespreken welke risico’s er op dit moment nog meer bestaan voor een echt inclusieve toekomstige arbeidsmarkt, en bieden aanbevelingen voor met name werkgevers maar óók werkzoekenden om bij te dragen aan een echt inclusieve arbeidsmarkt met ruimte voor ontplooiing door eenieder, en waardering voor eenieder.
In deel 1 is kort onze visie op problematieken in de huidige arbeidsmarkt beschreven, waaronder het gebruik van uitsluitingscriteria, waardoor mensen met passie (WILLEN) en talent (KUNNEN) buiten de boot vallen.
Deel 2 geeft organisaties een helder kader om hier anders mee om te gaan, namelijk door de context te managen (MOGEN) en kaders te bieden (MOETEN). Zo kan een groei- en bloei-economie ontstaan.
In deel 3 gingen we dieper in op belemmeringen en ingesleten patronen die obstakels vormen voor de weg naar een echt inclusieve arbeidsmarkt met ruimte voor ontplooiing door eenieder, en waardering voor eenieder.
In dit vierde deel gaan we in op het inzetten van slimme systemen of AI-toepassingen in onder andere werving- en selectieprocessen, en de daarbij horende risico’s.

Het gebruik van AI in werving en selectie

Al enige tijd zetten sommige bedrijfstakken zogenaamde ‘slimme systemen’ (HireVue 2018) in om hun besluitvorming te versnellen. Via Artificial Intelligence (AI) bepalen deze systemen welke kandidaten opvallen (Veale, Van Kleek en Binns 2018) en wordt bijvoorbeeld ingeschat wat de waarschijnlijkheid van een persoon is om te recidiveren na een misdrijf (Angwin et al. 2016).
Omdat deze systemen met algoritmes zijn ingeregeld op basis van een selecte steekproef van gegevens uit de echte wereld -bijvoorbeeld gegevens van misdadigers of fraudeurs- en vanuit dat profiel gaan zoeken, kan het niet anders dan dat de uitkomsten discriminerend zijn voor ondervertegenwoordigde groepen. Dat zit dan impliciet besloten in de keuze van de selecte steekproef als bron voor de algoritmes.
AI met vooroordelen
Systemen die op deze manier ingeregeld zijn, blijken in hoge mate verweerders van kleur te discrimineren bij de beoordeling van hun borgtocht (Angwin et al. 2016), classificeren minderheidsgroepen niet correct in gezichtsherkenning taken (Raji en Buolamwini 2019), en plegen loondiefstal op een toekomst van eerlijke werknemers.
Eveneens wordt AI op grote schaal gebruikt bij automatische besluitvorming in een breed scala aan scenario's, variërend van kredietbeoordelingen voor leningen tot aanbevelingen voor films en uitrollen van de surveillance economy.
Traditionele ontwerprichtlijnen voor AI-modellen zijn voornamelijk gericht op het maximaliseren van de nauwkeurigheid, maar recentelijke maatschappelijke misstanden - o.a. de toeslagen affaire - hebben aangetoond dat economisch irrationele en sociaal onaanvaardbare scenario's van discriminatie en oneerlijkheid waarschijnlijk structureel zullen optreden, tenzij deze kwesties expliciet worden aangepakt.
Puur vanuit ratio kan het verstandig lijken om met een AI-model te gaan werken ten koste van ‘inefficiënte mensen’, omdat het grote hoeveelheden data snel kan verwerken. Maar of een AI-model toegepast kan worden op mensen zonder groepen uit te sluiten of te discrimineren, is zeer afhankelijk van de data waarmee het model gevoed wordt.
Onderzoek de impact van bias in AI om discriminatie en uitsluiting tegen te gaan
Hoewel er een lange geschiedenis bestaat in het bestuderen van arbeidsdiscriminatie op gebieden als economie en sociale psychologie, is er maar weinig aandacht besteed aan de maatschappelijke impact van de invloed van algoritmische systemen. Deze systemen krijgen steeds meer de overhand in werving- en selectie (en andere maatschappelijke gebieden), ten koste van kandidaatselectie of andere menselijke en/of sociale besluitvorming.
Maar er is maar weinig bekend over hoe mensen door deze systemen worden beïnvloed bij hun keuze, bijvoorbeeld om iemand op gesprek te vragen. Wel is er een reële dreiging dat de specifieke talenten van Tom - onze fictieve, hooggevoelige, artistieke jongen uit deel 2 van deze artikelenreeks - door AI onvoldoende worden herkend, en slinken zijn kansen om onderdeel uit te maken van een groei- en bloei-economie daardoor.
Naarmate we meer proberen te begrijpen over hoe algoritmen veilig en eerlijk kunnen worden ingezet in het werving- en selectieproces, moeten we ook onderzoeken hoe algoritmen de besluitvorming in het nadeel van mensen zoals Tom kunnen beïnvloeden. Een eerlijke, voortvarende en inclusieve toekomst zou toch immers ook weggelegd moeten zijn voor Tom? En voor Fatima?
Workshop of presentatie boeken?
Meer weten over hoe wij diversiteit en inclusie zien als belangrijk onderdeel van jouw merkidentiteit en hoe je dit strategisch in kunt zetten, om je merk van binnen naar buiten te versterken? We gaan graag het gesprek met je aan.
Neem contact met ons op voor een vrijblijvend gesprek.

Find Your SparQle

Translate »