Sztuczna inteligencja już decyduje o tym, kto dostanie pracę lub awans. Czy tej technologii można ufać i czy przyczyni się do stworzenia bardziej różnorodnego i włączającego rynku pracy?
Jeśli ktoś był kiedykolwiek w parku Jones Beach na wyspie Long Island w Nowym Jorku, na pewno zwrócił uwagę na wiadukty nad oceanem, które prowadzą z autostrady i na autostradę. Te konstrukcje mają pewną osobliwość: ich delikatne łuki są bardzo nisko zawieszone nad jezdnią – czasem tylko 2,8 metra. Przypadek? Bynajmniej. Przenieśmy się do lat 20. XX wieku. Robert Moses, sławny nowojorski urbanista, chciał uczynić swój nowy park w Jones Beach miejscem odpoczynku tylko dla bogatych i białych Amerykanów. Wiedział, że ta uprzywilejowana grupa będzie przyjeżdżać na plażę własnymi samochodami, a uboga ludność czarnoskóra skorzysta z transportu publicznego. Chcąc ograniczyć dostęp tej ostatniej do parku, zbudował setki wiaduktów bardzo nisko nad autostradą. Tak nisko, że autobusy, które były o prawie metr wyższe, nie mogły się pod nimi zmieścić.
Dyskryminacja kobiet
Rasistowskie wiadukty to tylko jeden z wielu przykładów nieożywionej materii, która dyskryminuje ludzi ze względu na ich pochodzenie lub status. Czasem są one celowo projektowane z makiawelicznym zamiarem, ale chyba częściej świadczą o braku wyobraźni projektantów, jak miejskie bariery dla wózków inwalidzkich. Czy zastosowanie sztucznej inteligencji, która teoretycznie nie ma uprzedzeń do nikogo, pomoże uniknąć takich sytuacji? Niekoniecznie. Można tu wskazać algorytmy używane przy rekrutacji, które mają wiele zalet dla pracodawców, takich jak oszczędność czasu (67 proc. wskazań) i łatwiejsze znalezienie odpowiednich kandydatów (58 proc.) – wynika z badania portalu LinkedIn przeprowadzonego wśród prawie 9 tys. specjalistów HR. Co ciekawe, 43 proc. respondentów doceniło te narzędzia za eliminowanie uprzedzeń (np. rasowych) podczas selekcji. Jednak wydaje się, że w tym przypadku mogli się mylić.
Jeden z najgłośniejszych przypadków dotyczył Amazona, który stworzył algorytm nieświadomie faworyzujący aplikacje składane przez mężczyzn. Wynikało to z faktu, że system uczył się na bazie setek danych z rekrutacji prowadzonych w przeszłości przez „ludzki” HR, w których przewagę w istocie mieli mężczyźni. W efekcie sztuczna inteligencja stosowana przez koncern Jeffa Bezosa uznała się, że męscy kandydaci są lepsi. Program komputerowy gorzej traktował aplikacje zawierające słowo „women”, jak np. „women’s chess club captain”, i obniżał ocenę absolwentkom dwóch uczelni zdominowanych przez kobiety (media, które ujawniły ten fakt nie podały, o jakie szkoły chodziło).
Pora na inkluzywność
Sztuczna inteligencja to potężne narzędzie, które może być zarówno błogosławieństwem, jak i przekleństwem dla ludzkości. Aby nie obróciła się przeciwko nam, musimy być świadomi wielu zagrożeń, które niesie ze sobą. Jednak nie ma wątpliwości, że to właśnie dzięki niej dokonuje się rewolucja w rekrutacji i innych działaniach personalnych. Jeśli uda się wprowadzić regulacje, które skutecznie zapobiegną dyskryminacji, będziemy świadkami przełomu, który ułatwi pozyskiwanie i rozwijanie talentów na coraz bardziej konkurencyjnym rynku pracy. Jedno jest pewne: żyjemy w epoce różnorodności i inkluzywności, więc rozwiązania w rodzaju wiaduktów zaprojektowanych 100 lat temu przez Robert Moses są już nie do pomyślenia. Na pewno nie ma miejsca na dyskryminujące technologie w HR.
Selekcja kandydatów za pomocą sztucznej inteligencji staje się coraz bardziej popularna, jednak istnieją inne narzędzia i techniki, zapewniające efektywną ocenę kandydatów w procesie rekrutacji, np. Assessment Centre.
Więcej o sposobach sprawdzania kompetencji kandydatów można przeczytać w innym artykule eksperckim BIGRAM „Nie kupuj kota w worku”.