Sztuczna inteligencja w rekrutacji - ryzyka dla pracodawców
Narzędzia sztucznej inteligencji (AI) coraz częściej wspomagają proces rekrutacji pracowników poprzez klasyfikowanie kandydatów czy też kierowanie ofert pracy do wybranych osób za pomocą popularnych platform internetowych. W uproszczeniu mechanizm działania AI opiera się na analizowaniu przez model AI zbiorów danych (danych wejściowych), wprowadzonych przez człowieka. Analiza ta odbywa się za pomocą złożonych algorytmów, czyli zestawu reguł i instrukcji, które pozwalają maszynom na rozumowanie, uczenie się i podejmowanie decyzji. Celem analizy jest wytypowanie konkretnych wyników (danych wyjściowych), które będą odpowiadały wytycznym, z góry określonym przez człowieka. Cały proces odbywa się zatem „maszynowo”, bez ludzkiej ingerencji. Algorytmy działają na ograniczonych danych wejściowych. Dla sztucznej inteligencji są one jednak danymi kompletnymi i reprezentatywnymi. W rezultacie dane te stanowią wyłączną podstawę do wydawania rozstrzygnięć przez AI. Powyższe powoduje, że stosowanie AI w rekrutacji może wiązać się z ryzykiem, zarówno biznesowym, organizacyjnym jak i prawnym.
RYZYKA I NIEBEZPIECZEŃSTWA ZWIĄZANE Z UŻYWANIEM SZTUCZNEJ INTELIGENCJI W REKRUTACJI
Narzędzia AI mogą być opracowane specjalnie dla potrzeb danej organizacji lub być standardowym narzędziem używanym przez ogół bądź określone kategorie podmiotów. Niemniej jednak w każdym przypadku używanie przez pracodawców sztucznej inteligencji w procesie rekrutacji stanowi duże ryzyko. Wynika to z faktu, że budowanie bazy danych przez AI na podstawie danych historycznych może prowadzić do tworzenia wzorców mających charakter dyskryminacyjny. Dlatego zalecane jest, aby decyzje AI były ostatecznie weryfikowane przez człowieka. W rezultacie wspomaganie się przez rekruterów sztuczną inteligencją, bez narażania się na opisane ryzyko, może stanowić dla pracodawców ogromne wyzwanie organizacyjne.
W tym aspekcie interesujący wydaje się przypadek ujawniony w 2018 r. przez Reutersa – specjaliści od uczenia maszynowego w Amazon ustalili, że stworzony przez nich nowy algorytm, stosowany w procesie rekrutacji dyskryminuje kobiety. System ten miał za zadanie dokonywać selekcji setek aplikacji na jedno stanowisko i wybierać spośród nich 5 najlepszych. W 2015 roku Amazon ustalił jednak, że nowy system nie ocenia kandydatów aplikujących na stanowiska techniczne i deweloperskie w sposób neutralny płciowo. Wynikało to z faktu, że modele komputerowe Amazona zostały „wytrenowane”, aby oceniać kandydatów na podstawie wzorców wyprowadzonych z życiorysów kandydatów przesłanych do firmy w ciągu ostatnich 10 lat. Jak się okazało, większość życiorysów z tego okresu pochodziła od mężczyzn.
Szczególną uwagę należy zatem zwrócić na dane wejściowe wprowadzane do AI. Jeśli takie dane odzwierciedlają zakorzenione systemowo uprzedzenia, algorytmy nie tylko nie będą w stanie wyeliminować dyskryminacji, ale będą ją wzmacniać. Podkreślić należy, że zgromadzone dane początkowe nie muszą być umyślnie dyskryminacyjne, wystarczająca jest okoliczność, że w danej organizacji pracują osoby o podobnych cechach. W efekcie sztuczna inteligencja może wykluczać z rekrutacji osoby, które nie reprezentują cech osób już zatrudnionych. Co istotne, zasadniczo AI nie potrafi uzasadniać swoich wyborów w oparciu o obiektywne kryteria. W przypadku podniesienia przez kandydata do pracy zarzutu naruszenia zasady równego traktowania, ciężar udowodnienia, że nie doszło do jej naruszenia, spoczywa na organizacji korzystającej z AI. W doktrynie prawa przyjmuje się, że dyskryminacja algorytmiczna stanowi dyskryminację w rozumieniu Kodeksu pracy.
Innym ryzykiem związanym z wykorzystywaniem sztucznej inteligencji w rekrutacji jest nieprawidłowe przetwarzanie danych osobowych. Często ogólnodostępne narzędzia AI, takie jak ChatGPT, gromadzą wprowadzone dane i przesyłają je nieupoważnionym podmiotom. Jednorazowe udostępnienie danych osobowych narzędziu sztucznej inteligencji prowadzi do ryzyka niekontrolowanego ich przetwarzania i jest procesem nieodwracalnym.
Dodatkowo należy wspomnieć o profilowaniu. W rozumieniu RODO jest to każda forma zautomatyzowanego przetwarzania danych osobowych, która polega na wykorzystaniu tych danych do oceny osoby fizycznej. Należy wyróżnić profilowanie kwalifikowane, odnoszące się do sytuacji, w których zautomatyzowane przetwarzanie danych jest wykorzystywane do podejmowania decyzji wywołujących skutki prawne wobec osoby lub w podobny sposób na nią wpływających. Jest to szczególny rodzaj profilowania, który podlega surowszym regulacjom ze względu na jego potencjalny wpływ na prawa i wolności jednostki. Profilowanie nastąpić może nie tylko na podstawie wyszukiwania kluczowych słów w dokumentach aplikacyjnych, ale znane są również przypadki, gdy w trakcie rozmów rekrutacyjnych w formie online, rekruterzy korzystali z narzędzi pozwalających na analizę mimiki twarzy kandydata w trakcie jego odpowiedzi na zadane pytania.
Należy zauważyć, że zgodnie z art. 22 RODO osoba, której dane dotyczą, ma prawo do tego, by nie podlegać decyzji, która opiera się wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, i wywołuje wobec tej osoby skutki prawne lub w podobny sposób istotnie na nią wpływa. Oznacza to, że osoba, której dane dotyczą, powinna mieć prawo do tego, by decyzje jej dotyczące i znacząco wpływające na jej sytuację, nie były oparte wyłącznie na zautomatyzowanym przetwarzaniu jej danych osobowych. W konsekwencji niepoinformowanie osoby o zautomatyzowanym przetwarzaniu jej danych osobowych lub stosowanie AI wbrew jej sprzeciwowi, stanowi naruszenie prawa do ochrony danych osobowych. Ponadto, profilowanie kandydatów bez ich wiedzy lub wbrew ich sprzeciwowi może stanowić naruszenie ich dóbr osobistych.
Ryzykiem biznesowym dla pracodawcy jest również manipulowanie przez kandydata danymi w CV. W przypadku procesu rekrutacyjnego prowadzonego z wykorzystaniem AI, kandydat za pomocą zaszyfrowanych informacji może mieć możliwość pozycjonowania swojego CV. W rezultacie algorytm może wstępnie zaakceptować kandydaturę, która przez człowieka byłaby od razu odrzucona. Z drugiej strony osoba posiadająca pożądane kompetencje, która nie napisała swojego CV zgodnie z kluczem właściwym dla algorytmu, może zostać wykluczona z dalszego procesu rekrutacji. Ostatecznie więc należy się liczyć z ryzykiem, iż dane wyjściowe, przygotowane przez AI, mogą zostać zafałszowane. To oznacza konieczność ich manualnej weryfikacji.
AKT O SZTUCZNEJ INTELIGENCJI I PROJEKT POLSKIEJ USTAWY
W 2024 r. zostało ogłoszone rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji („AI Act”). Jego celem jest ujednolicenie przepisów w zakresie wykorzystywania systemów sztucznej inteligencji w państwach Unii Europejskiej. Unijny prawodawca jest świadomy ryzyk związanych z wykorzystywaniem AI przez pracodawców w procesie rekrutacji. W AI Act zwrócono uwagę na zjawisko dyskryminacji algorytmicznej oraz niebezpieczeństwo naruszania praw podstawowych w zakresie ochrony danych i prywatności. Systemy AI przeznaczone do wykorzystywania do celów rekrutacji, w szczególności do celów umieszczania ukierunkowanych ogłoszeń o pracę, analizowania i filtrowania podań o pracę oraz do oceny kandydatów będą uznawane za systemy wysokiego ryzyka.
Zgodnie z przepisami AI Act podmioty wykorzystujące w swojej działalności systemy AI wysokiego ryzyka będą zobowiązane do ustanowienia, wdrożenia, dokumentowania i obsługiwania systemu zarządzenia związanego z tym ryzykiem. Dodatkowo systemy AI wysokiego ryzyka będą musiały być zaprojektowane w sposób zapewniający przejrzystość ich działania, umożliwiającą podmiotom stosującym interpretację wyników systemu i ich właściwe wykorzystanie. Co najważniejsze, taki system AI będzie musiał być nadzorowany przez człowieka.
Przepisy dotyczące systemów AI wysokiego ryzyka będą obowiązywać w części od sierpnia 2026 r.
Aby zapewnić skuteczne stosowanie i przestrzeganie AI Act, Polska w października 2024 r. rozpoczęła pracę nad projektem ustawy o systemach sztucznej inteligencji. Projektowana ustawa nada kompetencje krajowym organom nadzoru rynku oraz ustanowi mechanizmy egzekwowania przepisów. Ustawa ta ma umożliwić eliminowanie z rynku systemów AI niespełniających wymogów oraz ustanowić procedury nakładania administracyjnych kar finansowych za naruszenia. Ponadto, ustawa określać ma procedury egzekwowania zakazów stosowania niektórych praktyk AI, w tym stworzy mechanizm umożliwiający składanie skarg w związku ze stosowaniem tych praktyk. Należy zauważyć, że obecny projekt ustawy nie obejmuje wszystkich obowiązków wynikających z AI Act . Dalsze działania legislacyjne będą prowadzone w miarę publikowania przez Komisję Europejską niezbędnych aktów wykonawczych przewidzianych na lata 2025–2026
KTO PONOSI ODPOWIEDZIALNOŚĆ ZA SZTUCZNĄ INTELIGENCJĘ?
Organizacja oferująca zatrudnienie jest administratorem danych osobowych kandydatów w procesie rekrutacji. Za wszelkie uchybienia związane z przetwarzaniem takich danych, które wynikają z działania sztucznej inteligencji, odpowiedzialność ponosi wyłącznie administrator. W przypadku zaś kwestii dyskryminacji, zgodnie z Kodeksem pracy, osoba, wobec której pracodawca naruszył zasadę równego traktowania w zatrudnieniu, w tym kandydat do pracy, ma prawo do odszkodowania. Niezależnie od tego, czy dyskryminacja jest umyślna czy też nie, pracodawca ponosi pełną odpowiedzialność za sposób traktowania pracowników oraz kandydatów na pracowników. Aktualnie obowiązujące przepisy prawa nie przewidują możliwości współdzielenia odpowiedzialności z dostawcą systemu AI w tym przedmiocie. Ewentualne roszczenia regresowe wobec dostawcy systemu AI mogą być bardzo trudne, ze względów prawnych i praktycznych.
Aleksandra Homołko – aplikantka radcowska
Daniel Tyzenhauz – prawnik
Wiewiórski Legal, Listopad 2024