Talent in een vruchtbare bodem: AI en ingebouwde vooroordelen
Employer Branding en Recruitment, Diversiteit en Inclusie voor Talentontwikkeling in een eerlijker wereld (4/5)
SparQle VP
In deze serie van artikelen onderzoeken we de huidige problemen met betrekking tot diversiteit, inclusie en talentontwikkeling in de arbeidsmarkt. We bespreken welke risico’s er op dit moment nog meer bestaan voor een echt inclusieve toekomstige arbeidsmarkt, en bieden aanbevelingen voor met name werkgevers maar óók werkzoekenden om bij te dragen aan een echt inclusieve arbeidsmarkt met ruimte voor ontplooiing door eenieder, en waardering voor eenieder.
In dit vierde deel gaan we in op het inzetten van slimme systemen of AI-toepassingen in onder andere werving- en selectieprocessen, en de daarbij horende risico’s.
Omdat deze systemen met algoritmes zijn ingeregeld op basis van een selecte steekproef van gegevens uit de echte wereld -bijvoorbeeld gegevens van misdadigers of fraudeurs- en vanuit dat profiel gaan zoeken, kan het niet anders dan dat de uitkomsten discriminerend zijn voor ondervertegenwoordigde groepen. Dat zit dan impliciet besloten in de keuze van de selecte steekproef als bron voor de algoritmes.
Eveneens wordt AI op grote schaal gebruikt bij automatische besluitvorming in een breed scala aan scenario's, variërend van kredietbeoordelingen voor leningen tot aanbevelingen voor films en uitrollen van de surveillance economy.
Traditionele ontwerprichtlijnen voor AI-modellen zijn voornamelijk gericht op het maximaliseren van de nauwkeurigheid, maar recentelijke maatschappelijke misstanden - o.a. de toeslagen affaire - hebben aangetoond dat economisch irrationele en sociaal onaanvaardbare scenario's van discriminatie en oneerlijkheid waarschijnlijk structureel zullen optreden, tenzij deze kwesties expliciet worden aangepakt.
Puur vanuit ratio kan het verstandig lijken om met een AI-model te gaan werken ten koste van ‘inefficiënte mensen’, omdat het grote hoeveelheden data snel kan verwerken. Maar of een AI-model toegepast kan worden op mensen zonder groepen uit te sluiten of te discrimineren, is zeer afhankelijk van de data waarmee het model gevoed wordt.
Onderzoek de impact van bias in AI om discriminatie en uitsluiting tegen te gaan
Hoewel er een lange geschiedenis bestaat in het bestuderen van arbeidsdiscriminatie op gebieden als economie en sociale psychologie, is er maar weinig aandacht besteed aan de maatschappelijke impact van de invloed van algoritmische systemen. Deze systemen krijgen steeds meer de overhand in werving- en selectie (en andere maatschappelijke gebieden), ten koste van kandidaatselectie of andere menselijke en/of sociale besluitvorming.
Maar er is maar weinig bekend over hoe mensen door deze systemen worden beïnvloed bij hun keuze, bijvoorbeeld om iemand op gesprek te vragen. Wel is er een reële dreiging dat de specifieke talenten van Tom - onze fictieve, hooggevoelige, artistieke jongen uit deel 2 van deze artikelenreeks - door AI onvoldoende worden herkend, en slinken zijn kansen om onderdeel uit te maken van een groei- en bloei-economie daardoor.
Naarmate we meer proberen te begrijpen over hoe algoritmen veilig en eerlijk kunnen worden ingezet in het werving- en selectieproces, moeten we ook onderzoeken hoe algoritmen de besluitvorming in het nadeel van mensen zoals Tom kunnen beïnvloeden. Een eerlijke, voortvarende en inclusieve toekomst zou toch immers ook weggelegd moeten zijn voor Tom? En voor Fatima?
Workshop of presentatie boeken?
Meer weten over hoe wij diversiteit en inclusie zien als belangrijk onderdeel van jouw merkidentiteit en hoe je dit strategisch in kunt zetten, om je merk van binnen naar buiten te versterken? We gaan graag het gesprek met je aan.