Nevarnosti, ki jih prinaša uvedba umetne inteligence v proces zaposlovanja
Umetna inteligenca se lahko uporablja tudi v kadrovanju in pri zaposlovanju. Pri tem pa je lahko tudi pristranska …
Avtorica: Laura Fatur
Kot stereotipna pripadnica generacije Z tudi sama v iskanju zabave (pre)pogosto zaidem na družabno omrežje TikTok. Njegov algoritem me do sedaj že docela pozna – ve, katere posnetke »srčkam« in katerim ustvarjalcem zvesto sledim. In za to, da me vsak dan pričakajo le najljubše vsebine, poskrbi umetna inteligenca (UI). Niso pa socialna omrežja edina, ki se zanašajo na delovanje UI. V zadnjem času jo vse pogosteje uporabljajo tudi organizacije pri izbiri kadrov. In tako kot TikTokov algoritem izbere le najboljšo vsebino zame, tako tudi algoritem v procesu zaposlovanja izbere najboljšega kandidata – ali pač?
(Ne)pristranskost zaposlovalca
Socialno omrežje TikTok v mojem življenju ni sinonim zgolj za zabavo, temveč predstavlja tudi vir informacij in novic, med drugim s področja znanosti. Tako sem pred dnevi zasledila objavo, ki je opozarjala na študijo, ki so jo leta 2012 izvedli C. A. Moss-Racusin in sodelavci. Slednje je zanimalo, ali znanstveniki, zaposleni na univerzah, različno ocenjujejo primernost kandidata glede na njegov spol. Ugotovili so, da so tako moški kot ženske ocenili kandidata, ki so mu naključno pripisali moški spol, kot bistveno bolj kompetentnega v primerjavi s povsem identično žensko kandidatko. Ta raziskava pa ni edina, ki je prišla do takšnih ugotovitev. Krajše brskanje po spletu nas hitro privede do zaključkov, ki opozarjajo, da so tovrstnih pristranskosti pri zaposlovanju poleg oseb ženskega spola deležni tudi pripadniki manjšin, različnih etničnih skupin in posamezniki s posebnimi potrebami (več si lahko preberete tudi na tej povezavi).
Vsi ti dokazi nas tako vodijo le k eni sodbi – človek je pristranski. Še več, pristranskost je v bistvu temeljna človekova lastnost. Dejstvo je, da nas privlačijo ljudje, ki so nam podobni po videzu ali pa govorijo in razmišljajo podobno kot mi. Velikokrat se svojih pristranskosti niti ne zavedamo, kljub temu da te pomembno vplivajo na naše vedenje in odločitve. Posledično se lahko posamezniki določenega spola, etničnega porekla itd. srečajo s težko premagljivimi ovirami v procesu pridobivanja zaposlitve.
Človek je morda res pristranski, uporaba umetne inteligence pa gotovo ni!
Ravno zaradi človekove pristranskosti številni zagovarjajo uporabo UI v procesu zaposlovanja, saj naj bi ta vodila do bolj objektivnih in pravičnih rezultatov. Preden pa se prenaglimo in brezpogojno sprejmemo uporabo UI tudi na tem področju življenja, se na tem mestu opomnimo, da so sistemi UI lahko objektivni in pravični zgolj v tolikšni meri, kot jim to dovoljujejo podatki, na katerih se učijo.
Če vzamemo za primer izvedbo razgovorov s pomočjo UI. Slednja lahko na podlagi analize obraznih izrazov, telesne govorice in govora ustvari podobo o mehkih veščinah in osebnostnih značilnostih kandidata. Kot kažejo pričevanja kandidatov, pa težave nastanejo, ko očesni stik, verbalni tiki in govorni vzorci kandidatov z recimo motnjo avtističnega spektra odstopajo od normativnih. Ta oseba bo tako izpadla iz izbora, četudi so te mere slabi pokazatelji njene kompetentnosti za opravljanje določenega dela.
Podobno so ugotovili v podjetju Amazon, v katerem so ustvarili algoritem za filtriranje življenjepisov kandidatov za delovna mesta s področja tehnologije. V ta namen so zbrali nabor življenjepisov, ki so bili na podjetje naslovljeni v obdobju desetih let. Ker pa v tehnološki industriji prevladujejo zaposleni moškega spola, je seveda večinski delež tega nabora predstavljal moške kandidate. Tako se je algoritem naučil, da so moški primernejši kandidati za delovno mesto, in nižje vrednotil življenjepise, ki so vsebovali besedo “ženski”.
Slabi podatki, slabi rezultati
Zgornji in podobni primeri ne predstavljajo neposredne kritike UI, temveč nas svarijo pred nepremišljeno in nenadzorovano uporabo le-te. Jasno je, da v primeru, ko podatkovni nizi ne vsebujejo dovolj informacij o določenih skupinah ljudi, algoritem ne bo natančno in zanesljivo ocenil pripadnikov teh skupin. Posledično ne moremo zaključiti, da je sama UI pristranska do določenih skupin. Lahko pa izpostavimo primere, ko je nepazljivo »hranjenje« UI s podatki, ki so odsev obstoječe pristranskosti in diskriminacije v družbi, privedlo do reprodukcije te iste pristranskosti in diskriminacije kljub želji po pravičnosti. Na ta način so bili pripadniki marginaliziranih skupin, ki imajo že tako slabše zaposlitvene možnosti, z uporabo UI porinjeni le še dlje na rob delovnega trga. In če se vrnemo na prvotno vprašanje – v teh primerih so izgube zabeležile tudi same organizacije, saj navsezadnje ni bil izbran najboljši kandidat za določeno delovno mesto.
Kako naprej?
Lahko bi rekli, da smo se znašli v slepi ulici. Ne glede na to, ali je človek v proces izbire kadrov vpleten neposredno ali pa posredno preko podatkov, s katerimi »hrani« UI, obstaja nevarnost prevlade pristranskosti nad pravičnostjo. Zato na tem mestu ni ključna dilema, kateri izmed pristopov je bolj pravičen, saj imata oba v srčici isto pomanjkljivost. Nasprotno, težave se moramo lotiti pri koreninah in se usmeriti v ozaveščanje naših pristranskosti in njihovo odpravo ter v podporo odrinjenim skupinam v boju za enakost v procesu zaposlovanja in na delovnem trgu. Pri tem pa nam morda lahko priskoči na pomoč tudi umetna inteligenca.
Literatura
Dastin, J. (2022). Amazon scraps secret AI recruiting tool that showed bias against women. V K. Martin (ur.), Ethics of data and analytics (str. 296–299). Auerbach Publications.
Fitzell, S. (2022). Reconsidering AI in Screening and Hiring. LinkedIn. https://www.linkedin.com/pulse/reconsidering-ai-screening-hiring-susan-fitzell-neurodiversity-expert
Houser, K. A. (2019). Can AI solve the diversity problem in the tech industry: Mitigating noise and bias in employment decision-making. Stan. Tech. L. Rev., 22, 290.
Lee, A. (2019). An AI to stop hiring bias could be bad news for disabled people. Wired UK. https://www.wired.com/story/ai-hiring-bias-disabled-people/
Moss-Racusin, C. A., Dovidio, J. F., Brescoll, V. L., Graham, M. J. in Handelsman, J. (2012). Science faculty’s subtle gender biases favor male students. Proceedings of the national academy of sciences, 109(41), 16474–16479.
Pollock, E. (2024). Everything You Need to Know About the TikTok Algorithm to Go Viral in 2024. Agorapulse. https://www.agorapulse.com/blog/tiktok-algorithm/
Sonderling, K. E., Kelley, B. J. in Casimir, L. (2022). The promise and the peril: artificial intelligence and employment discrimination. U. Miami L. Rev., 77, 1.
O avtorici: Laura Fatur je študentka magistrskega študija psihologije na Filozofski fakulteti Univerze v Ljubljani. Zanima jo predvsem raziskovalno in pa psihoterapevtsko delo, prosti čas pa najraje nameni sprehodom v naravi, dobri knjigi ali obisku kinodvorane.
Vabljeni, da vpišete svoj elektronski naslov in se naročite na naše objave. Tako boste vedno obveščeni, ko bomo objavili nov prispevek.
