Po vrtoglavo hitri integraciji umetne inteligence na vsa področja dela in ustvarjanja, od generiranja klepeta (ChatGPT), slik (DALL-E), avtomatizacije povzemanja sestankov (Airgram), izdelave prosojnic (Magic Slides) do izdelave video posnetkov z avatarji (Synthesia), je potencialnih načinov integracije UI na delovna mesta ogromno. Število zaposlenih, ki na delovnem mestu uporabljajo ChatGPT, je v začetku 2024 ZDA narastlo nad 60 %. Vseeno pa so v zadnjem času velika podjetja, npr. Amazon, Apple, Spotify in Samsung, prepovedala oziroma omejila uporabo umetne inteligence na delovnem mestu – zakaj?
Avtorica: Ema Bohanec
O umetni inteligenci smo že pisali. Vabljeni, da si preberete še kak prispevek!
Pasti uporabe umetne inteligence
Pri uporabi umetne inteligence, tako v organizacijah kot tudi na splošno, so etična in pravna vprašanja ena izmed najbolj občutljivih tem, še posebej na področju zaščite zasebnosti zaposlenih in organizacij. Samsung Electronics je na primer omejil uporabo generativne UI aprila 2023, ko so v podjetju ugotovili, da je eden izmed inženirjev kopiral občutljivo izvorno kodo v ChatGPT – kar je nočna mora za tehnološko podjetje. Čeprav je bila to nenamerna napaka, je lahko povzročila, da je ChatGPT te občutljive informacije razkril drugim uporabnikom, kar je za podjetje predstavljalo veliko varnostno tveganje. Podobne skrbi so se pojavile tudi v večjih bankah kot so Bank of America, Deutsche Bank, Citigroup, Goldman Sachs… V bančnem in finančnem sektorju so finančni podatki še posebej občutljivi, zaradi velike uporabnosti UI pri ugotavljanju zlorab, pregledu investicijskih projektov, odgovarjanju na vprašanja komitentov, pa je še toliko bolj pomembno, da se generativna umetna inteligenca uporablja na varen način.
Kako ustrezno implementirati UI?
Glede na to, da uporabnost umetne inteligence tako hitro narašča, pa zgolj prepovedovanje njene uporabe preprosto ne reši širšega problema v ozadju in na dolgi rok ni vzdržljivo. Drugačen pristop k uporabi UI bi se lahko osredotočil na izobraževanje zaposlenih o varni uporabi orodij umetne inteligence, identifikaciji tveganj uporabe in tudi o načinih, kako se zbirajo in analizirajo podatki o zaposlenih s pomočjo orodij UI. V primeru uporabe UI v kadrovske namene (kot so zaposlovanje ali odpuščanje), imajo kandidati in zaposleni pravico vedeti, na kakšen način odločevalci uporabijo orodja umetne inteligence, da sprejmejo odločitve. Transparentnost pri uporabi UI je ključna za grajenje zaupanja do takšnih sistemov in hkrati za zagotavljanje odgovornega in nepristranskega ravnanja.

Vir: pexels.com
Etični pomisleki
Nepristranskost je še posebej občutljivo področje, saj lahko algoritmi UI nenamerno vzdržujejo ali povečujejo pristranskosti, prisotne v podatkih, ki so bili uporabljeni za učenje. To lahko na področju zaposlovanja, ocenjevanja uspešnosti in odločanja o napredovanju privede do prikrite diskriminacije in nepravičnih odločitev. Organizacije morajo zagotoviti skrbno izbiro podatkov, oblikovanje algoritmov ter stalno spremljati in ocenjevati UI sisteme, da pristranskosti aktivno zmanjšujejo. Če podam primer, na področju zdravstva lahko podreprezentirani podatki žensk in manjšinskih skupin izkrivijo napovedi UI. V ZDA so ugotovili, da metoda računalniško podprtega načrtovanja (CDS) pri temnopoltih posameznikih poda manj natančne rezultate kot pri svetlopoltih, saj podatki niso bili ustrezno reprezentativni. Narodni urad za standarde in tehnologijo (angl. National Institute of Standards and Technology, NIST) je v poročilu iz leta 2022, ki ga toplo priporočam v hiter prelet, opozoril:
»človeški in sistemski institucionalni in družbeni dejavniki so pomemben viri pristranskosti UI, ki je trenutno spregledan. Da se uspešno soočimo s tem izzivom, bomo morali upoštevati vse oblike pristranskosti. To pomeni, da moramo razširiti pogled na strojno učenje, da prepoznamo in preučimo, kako UI nastaja znotraj družbe in kakšen učinek ima v njej.«
Znotraj organizacije morajo biti torej jasno opredeljeni etični standardi, smernice uporabe za zagotavljanje skladnosti z regulativami, kot je Splošna uredba o varstvu podatkov (GDPR) in podobno. Pri tem bo organizacije kmalu usmerjala zakonodaja o uporabi UI, kjer bodo določene zahteve za certificiranje UI sistemov in opredeljeni standardi za skladnost z varstvom osebnih podatkov. Ta naj bi bila sprejeta leta 2025 na ravni celotne Evropske unije.
Kako naprej?
Ključno je, da se umetno inteligenco pri uporabi v kadrovanju razume kot orodje, ki je sestavljeno iz specifičnih »materialov« (podatkov), ki so v določenem trenutku na voljo, in kot tako ni popolno. Avtonomija pri sprejemanju odločitev mora ostati v rokah posameznika, zagotovljeno pa mora biti tudi, da ima zaposleni možnost podajati povratno informacijo glede delovanja orodij umetne inteligence v določenih kontekstu, še posebej, če se uporablja specializiran sistem UI za določeno organizacijo. Razvoj umetne inteligence je nemogoče zaustaviti – vplivni ljudje, kot so Geoffrey Hinton, Elon Musk, Bill Gates, Stuart Russel, so namreč to že poskusili v pismu Inštituta za prihodnost življenja (angl. Future of Life Institute), vendar brez učinka. Molochova dirka umetne inteligence se tako nadaljuje, na nas pa je, da se trdno držimo vajeti – če niso te le iluzija.

O avtorici: Ema Bohanec je diplomirana psihologinja in študentka magistrskega študija psihologije na Univerzi v Ljubljani. Zanimajo jo področja socialne psihologije, uporabniške izkušnje in interakcije človek-računalnik.
Vabljeni, da vpišete svoj elektronski naslov in se naročite na naše objave. Tako boste vedno obveščeni, ko bomo objavili nov prispevek.
