Sztuczna inteligencja a prawo pracy: na co uważać, automatyzując procesy kadrowo‑płacowe

0
3
Rate this post

Z tej publikacji dowiesz się...

Po co w ogóle automatyzować kadry i płace z użyciem AI

Krok 1: Zdefiniuj, które procesy HR faktycznie zyskują na AI

Automatyzacja kadrowo‑płacowa z użyciem sztucznej inteligencji ma sens tylko tam, gdzie rzeczywiście rozwiązuje konkretny problem biznesowy. Pierwszy krok to przejrzenie wszystkich procesów HR i wskazanie tych, w których decyzje są powtarzalne, oparte na danych i czasochłonne dla zespołu kadr.

W praktyce AI najczęściej przynosi realną wartość w takich obszarach jak:

  • Rekrutacja i selekcja – analizowanie CV, porównywanie profili kandydatów z opisem stanowiska, wstępny „scoring” kandydatów, chatboty odpowiadające na pytania aplikujących.
  • Planowanie grafików i czasu pracy – prognozowanie zapotrzebowania na pracowników, optymalizowanie grafików z uwzględnieniem dyspozycyjności, urlopów, przepisów o odpoczynku dobowym i tygodniowym.
  • Naliczanie wynagrodzeń i premii – automatyczne wyliczanie zmiennych składników płacowych w oparciu o wyniki sprzedaży, obecność, wskaźniki jakościowe, cele kwartalne.
  • Analiza absencji i rotacji – przewidywanie ryzyka odejścia pracownika, identyfikacja wzorców absencji, wykrywanie anomalii (np. powtarzające się „chorobowe” w poniedziałki).
  • Ocena okresowa i rozwój talentów – analiza wyników, opinii 360, udziału w projektach, rekomendacje awansów lub szkoleń.

Zanim kupisz jakiekolwiek rozwiązanie AI, spisz listę konkretnych problemów: opóźnienia w naliczaniu wynagrodzeń, chaos w grafikach, długie procesy rekrutacyjne, częste skargi na niesprawiedliwe premie. Potem dopiero szukaj technologii, która ten problem adresuje, a nie odwrotnie.

Co sprawdzić na tym etapie:

  • Czy problem jest realny (są skargi, straty, błędy), czy „wyczuwany” intuicyjnie.
  • Czy da się go rozwiązać prostszymi środkami (np. doprecyzowanie regulaminu, szkolenie menedżerów, lepsza checklista).
  • Jaką część procesu da się ustandaryzować i „przekazać” algorytmowi, a gdzie konieczna jest ocena człowieka.

Różnica między prostą automatyzacją a AI/ML

Automatyzacja kadrowo‑płacowa to nie zawsze sztuczna inteligencja. Z punktu widzenia prawa pracy różnica ma znaczenie, bo inaczej ocenia się system oparty na prostych regułach, a inaczej narzędzie uczące się na danych pracowników.

Prosta automatyzacja (RPA, reguły biznesowe):

  • Działa według z góry ustalonych zasad („jeśli – to”), zapisanych przez człowieka.
  • Przykład: „Jeżeli pracownik przepracował 160 godzin i ma wynik sprzedaży powyżej progu, nalicz premię X”.
  • Łatwo prześledzić logikę działania i wyjaśnić ją przed sądem pracy czy inspektorem PIP.

Sztuczna inteligencja / uczenie maszynowe (AI/ML):

  • Uczy się na danych historycznych, szuka wzorców, przewiduje wyniki, często bez prostej, liniowej logiki.
  • Przykład: model, który na podstawie setek cech kandydata ocenia „prawdopodobieństwo sukcesu na stanowisku”.
  • Często jest trudniejszy do wytłumaczenia; tzw. „czarna skrzynka” stanowi problem przy obowiązku wyjaśnienia decyzji.

Dla prawa ważne jest, czy mamy do czynienia z zautomatyzowanym podejmowaniem decyzji lub profilowaniem, a więc przetwarzaniem danych osobowych w określonym celu wywołującym skutki prawne wobec pracownika lub kandydata. Im bardziej samodzielny algorytm, tym większe wymogi co do przejrzystości, audytu i udziału człowieka.

Korzyści biznesowe a punkty zapalne w prawie pracy

Automatyzacja kadrowo‑płacowa z użyciem AI może znacząco poprawić efektywność działu HR. Typowe korzyści to:

  • Oszczędność czasu – mniej ręcznego przepisywania danych, mniej rutynowych obliczeń.
  • Spójność decyzji – te same kryteria stosowane do wszystkich kandydatów i pracowników, co zmniejsza ryzyko arbitralności.
  • Mniej błędów technicznych – redukcja pomyłek w naliczaniu pensji, benefitów, grafików.
  • Lepsza analityka – wgląd w trendy absencji, rotacji, efektywności zespołów.

Równocześnie pojawiają się wrażliwe punkty prawne:

  • Decyzje o zatrudnieniu i zwalnianiu – odmowa przyjęcia do pracy, brak awansu, gorsze warunki zatrudnienia to obszary silnie chronione przepisami o równości i zakazie dyskryminacji.
  • Wynagrodzenie i czas pracy – naliczanie pensji, dodatków, nadgodzin podlega szczegółowym regulacjom Kodeksu pracy i przepisów szczególnych.
  • Monitoring i kontrola – wykorzystanie AI w monitoringu aktywności, lokalizacji czy wydajności pracy wiąże się z ograniczeniami prawnymi i obowiązkiem informacyjnym.
  • Przetwarzanie danych osobowych – dane kandydatów i pracowników, zwłaszcza szczególne kategorie (zdrowie, przekonania), są mocno chronione przez RODO.

Co sprawdzić po stronie prawa:

  • Czy decyzje podejmowane przez system AI wywołują skutki prawne dla pracownika (np. wysokość pensji, brak awansu).
  • Czy człowiek ma realny wpływ na decyzję, czy tylko „zatwierdza” to, co policzył algorytm.
  • Czy regulaminy wynagradzania, pracy i polityki HR opisują sposób działania systemów i kryteria decyzji.
Maszyna do pisania z kartką z napisem AI Ethics na biurku
Źródło: Pexels | Autor: Markus Winkler

Podstawowe ramy prawne: jakie przepisy dotykają AI w HR

Krok 1: Najważniejsze przepisy prawa pracy

Sztuczna inteligencja w kadrach i płacach nie funkcjonuje w próżni. Każda funkcja systemu HR z elementem AI zahacza o konkretne przepisy Kodeksu pracy i ustaw okołokodeksowych. Najczęściej w grę wchodzą:

  • Przepisy o nawiązaniu i rozwiązaniu stosunku pracy – art. dotyczące formy zatrudnienia, wypowiedzeń, rozwiązań dyscyplinarnych.
  • Regulacje dotyczące czasu pracy – doby pracowniczej, odpoczynku dobowego i tygodniowego, godzin nadliczbowych, pracy w nocy, ewidencji czasu pracy.
  • Równe traktowanie i zakaz dyskryminacji – obejmujące rekrutację, wynagradzanie, dostęp do szkoleń, awanse, rozwiązywanie umów.
  • Przepisy BHP – zwłaszcza tam, gdzie AI wspiera monitorowanie bezpieczeństwa, zachowań ryzykownych czy obciążenia pracą.
  • Przepisy o monitoringu – szczególnie monitoring wizyjny, monitoring poczty elektronicznej i innych narzędzi służbowych oraz monitorowanie lokalizacji.

Automatyzacja kadrowo‑płacowa AI nie zwalnia pracodawcy z żadnego obowiązku wynikającego z prawa pracy. To nadal pracodawca odpowiada za zgodność grafików z przepisami, prawidłowe naliczanie wynagrodzenia czy brak dyskryminacji, nawet jeśli decyzję technicznie „podjął system”.

Co sprawdzić:

  • Czy w firmie jest aktualny regulamin pracy, wynagradzania i inne wewnętrzne akty, które da się powiązać z logiką działania systemu AI.
  • Czy przed wdrożeniem AI przeanalizowano, jakie artykuły Kodeksu pracy mają zastosowanie do danego procesu (np. rekrutacji, czasu pracy, kar porządkowych).

Krok 2: RODO i dane pracownicze w systemach AI

Każde narzędzie AI w HR opiera się na danych pracowników lub kandydatów. Dlatego RODO i krajowe przepisy o ochronie danych osobowych są kluczowe. Kilka podstawowych zasad:

  • Podstawa prawna – przetwarzanie danych pracowników zwykle odbywa się na podstawie obowiązku prawnego (art. 6 ust. 1 lit. c RODO) lub uzasadnionego interesu (art. 6 ust. 1 lit. f), rzadziej na zgodzie.
  • Minimalizacja danych – wolno gromadzić tylko te dane, które są niezbędne do osiągnięcia celu (np. do naliczenia wynagrodzenia, rekrutacji na konkretne stanowisko).
  • Ograniczenie retencji – dane nie mogą być przetwarzane „na wszelki wypadek”. Trzeba ustalić jasne okresy przechowywania (np. CV kandydatów, dane z monitoringu aktywności).
  • Szczególne kategorie danych – zdrowie, przynależność związkowa, przekonania religijne czy orientacja seksualna podlegają szczególnej ochronie i co do zasady nie mogą być podstawą oceny pracownika.

AI generuje dodatkowe wyzwania, bo często działa na dużych zbiorach danych, łączy różne źródła informacji, tworzy profile i przewiduje zachowania. To wszystko podlega rygorystycznym zasadom RODO, w szczególności przepisom o profilowaniu i zautomatyzowanym podejmowaniu decyzji.

Co sprawdzić:

  • Czy dla każdego modułu AI w HR istnieje jasno określony cel przetwarzania i odpowiednia podstawa prawna.
  • Czy wprowadzono ograniczenia dotyczące tego, jakie dane mogą zasilać model (np. brak danych zdrowotnych, brak informacji o ciąży, urlopach macierzyńskich w scoringu kandydatów).
  • Czy ustalono i wdrożono okresy retencji dla danych używanych przez systemy AI (kiedy i jak dane są usuwane lub anonimizowane).

Krok 3: AI Act i systemy wysokiego ryzyka w HR

Na poziomie Unii Europejskiej trwają prace nad AI Act, czyli rozporządzeniem regulującym stosowanie sztucznej inteligencji. Z perspektywy automatyzacji kadrowo‑płacowej kluczowe jest to, że systemy AI wykorzystywane do rekrutacji, oceny i zarządzania pracownikami mają być uznane za systemy wysokiego ryzyka.

Co to w praktyce oznacza (w zarysie):

  • Obowiązek oceny ryzyka związanego z działaniem systemu przed jego wdrożeniem.
  • Wymóg zapewnienia nadzoru człowieka nad kluczowymi decyzjami dotyczącymi zatrudnienia.
  • Konieczność dokumentowania parametrów systemu, jakości danych, testów i monitorowania skuteczności.
  • Wymóg przejrzystości – użytkownik (pracodawca) i osoba, której dane dotyczą (pracownik, kandydat), mają wiedzieć, że korzysta się z AI.

AI Act uzupełni istniejące przepisy, ale nie zastąpi Kodeksu pracy czy RODO. Dla pracodawcy oznacza to kolejne warstwy obowiązków: dokumentacyjne, organizacyjne i techniczne. Im wcześniej firma zacznie myśleć o audycie algorytmów i przejrzystości, tym łatwiej będzie dostosować się do nowych regulacji.

Co sprawdzić:

  • Czy używane narzędzia HR z AI można zakwalifikować jako systemy wysokiego ryzyka (np. ATS z modułem scoringu kandydatów, system do oceny rocznej).
  • Czy dostawca oprogramowania przewiduje aktualizacje i funkcje pomagające spełnić wymogi AI Act (logi decyzji, dokumentacja modelu, testy biasu).

Monitoring pracowników i AI

Prawo pracy i przepisy o ochronie danych regulują także monitoring pracowników. Wiele nowoczesnych narzędzi AI „wchodzi” w ten obszar: monitoruje aktywność na komputerze, analizuje nagrania z kamer, śledzi lokalizację. Tego typu rozwiązania mogą być zgodne z prawem, ale tylko pod określonymi warunkami.

Pracodawca może wprowadzić monitoring w celu:

  • zapewnienia bezpieczeństwa pracowników, ochrony mienia, kontroli produkcji lub pracy,
  • zachowania w tajemnicy informacji, których ujawnienie mogłoby narazić pracodawcę na szkodę,

ale musi przy tym:

  • określić cele, zakres i sposób stosowania monitoringu w układzie zbiorowym pracy, regulaminie pracy lub obwieszczeniu,
  • poinformować pracowników o wprowadzeniu monitoringu w odpowiednim terminie przed jego uruchomieniem,
  • zadbać o proporcjonalność – monitoring nie może być nadmierny względem celu.

AI, która analizuje nagrania z monitoringu czy logi aktywności, nie zmienia tych zasad. Zmienia natomiast skalę i intensywność nadzoru. To może prowadzić do zarzutów o naruszenie prywatności, nadmierną inwigilację lub pośrednią dyskryminację określonych grup (np. osób częściej korzystających z przerw).

Co sprawdzić:

  • Czy w regulaminie pracy i politykach prywatności opisano wykorzystanie narzędzi AI w monitoringu.
  • Czy zakres monitoringu jest adekwatny do celu i nie wkracza w sferę życia prywatnego pracowników (np. analiza treści prywatnej korespondencji).

Gdzie najczęściej wchodzi AI w procesy kadrowo‑płacowe

Rekrutacja i preselekcja kandydatów

Systemy ATS z modułami AI najczęściej automatyzują pierwszy kontakt z kandydatem, preselekcję CV i wstępne oceny dopasowania do stanowiska. W tle dzieje się sporo z perspektywy prawa pracy i RODO.

Typowe zastosowania to:

  • filtrowanie CV pod kątem słów kluczowych, doświadczenia i kwalifikacji,
  • ocena odpowiedzi w formularzach rekrutacyjnych, testach kompetencyjnych i zadaniach próbnych,
  • chatboty prowadzące rozmowę wstępną i zbierające dane o kandydacie,
  • rekomendacje: „kandydaci podobni do osób, które dobrze się sprawdziły na tym stanowisku”.

Jeśli te narzędzia w praktyce decydują, kto w ogóle zostanie zaproszony na rozmowę, wchodzimy w obszar zautomatyzowanych decyzji wywołujących istotne skutki. To automatycznie aktywuje szereg obowiązków: informacyjnych, antydyskryminacyjnych i dotyczących przejrzystości kryteriów.

Najczęstsze błędy przy wdrożeniu:

  • brak jasnego opisu, jakie kryteria algorytm stosuje do odrzucania CV,
  • uczenie modelu na historycznych danych, które odzwierciedlają stare uprzedzenia (np. preferowanie jednej płci, określonego typu uczelni),
  • pozostawienie całej preselekcji „w rękach” AI bez realnej weryfikacji człowieka.

Krok 1: ustalenie roli AI w procesie rekrutacji – czy narzędzie tylko porządkuje dane, czy także odrzuca kandydatów.
Krok 2: przegląd kryteriów preselekcji pod kątem potencjalnego uprzywilejowania lub wykluczenia określonych grup.
Krok 3: zaprojektowanie miejsca na „czynnik ludzki” – kto i w jakim momencie może skorygować lub podważyć ocenę systemu.

Co sprawdzić:

  • Czy umowa z dostawcą ATS opisuje sposób działania modułów AI oraz odpowiedzialność za ewentualne błędne decyzje.
  • Czy dział HR potrafi wytłumaczyć kandydatowi, na jakiej podstawie został odrzucony na wstępnym etapie.
  • Czy algorytm był testowany pod kątem dyskryminacji pośredniej (płeć, wiek, pochodzenie, niepełnosprawność).

Planowanie i rozliczanie czasu pracy

Narzędzia AI do planowania grafików i rozliczania czasu pracy obiecują optymalizację kosztów i obsady. Jednocześnie dotykają najwrażliwszych obszarów prawa pracy: odpoczynku, godzin nadliczbowych i dyspozycyjności pracownika.

Najczęstsze funkcje takich systemów:

  • automatyczne układanie grafików z uwzględnieniem zapotrzebowania,
  • prognozowanie obciążenia pracą (np. ruchu klientów) i dostosowanie liczby osób na zmianie,
  • sygnalizowanie „anomalii” – spóźnień, przerw, nadgodzin,
  • wstępne naliczanie wynagrodzenia za czas pracy na podstawie danych z ewidencji.

Jeśli AI zaczyna sugerować, kogo „opłaca się” wstawić w grafik lub komu ograniczyć nadgodziny, łatwo o zarzut dyskryminacji lub naruszenia zasady równego traktowania w dostępie do pracy i dodatków płacowych.

Krok 1: skonfigurować system tak, by twarde ograniczenia kodeksowe (normy czasu pracy, odpoczynek) były nienaruszalne – algorytm nie może ich omijać ani „optymalizować”.
Krok 2: opisać w regulaminie pracy, jakie kryteria system bierze pod uwagę przy układaniu grafików.
Krok 3: zapewnić możliwość ręcznej korekty – kierownik powinien móc zmienić plan, a system powinien logować te zmiany wraz z uzasadnieniem.

Co sprawdzić:

  • Czy automatycznie generowane grafiki są zgodne z normami dobowymi i tygodniowymi odpoczynku.
  • Czy pracownicy mają wgląd w zasady układania grafików i mogą zgłaszać zastrzeżenia.
  • Czy system nie premiuje w sposób ukryty tylko „najtańszych” lub „najbardziej dyspozycyjnych” pracowników, spychając innych na gorsze zmiany.

Ocena okresowa i zarządzanie wynikami

Systemy HR z modułem AI coraz częściej analizują KPI, feedback 360°, wyniki projektów i dane z różnych narzędzi pracy, aby wspierać decyzje o awansach, podwyżkach i szkoleniach. Z punktu widzenia prawa pracy oznacza to realny wpływ na sytuację pracownika.

Przykłady:

  • algorytm wylicza „wynik efektywności” na podstawie raportów sprzedażowych, czasu reakcji na zgłoszenia, liczby zamkniętych spraw,
  • system rekomenduje osoby do awansu lub programów talentowych na bazie analizy dotychczasowych ocen,
  • AI sugeruje rozmowę rozwojową lub działania naprawcze wobec pracownika, którego wskaźniki „spadają”.

Ryzyko rośnie, gdy decyzje płacowe lub personalne opierają się w praktyce wyłącznie na tych wyliczeniach, a przełożony jest jedynie „podpisującym”. Trudno wtedy mówić o realnym nadzorze człowieka.

Krok 1: ustalić, które decyzje kadrowe nie mogą być podejmowane automatycznie (awans, degradacja, wypowiedzenie, obniżka premii zmiennej) i opisać to w procedurach.
Krok 2: zapewnić przejrzystość – pracownik powinien wiedzieć, jakie dane wpływają na jego „rating” i mieć możliwość odwołania się.
Krok 3: okresowo analizować, czy wyniki systemu nie różnicują w sposób nieuzasadniony grup pracowników (np. rodziców z małymi dziećmi, osób z niepełnosprawnościami).

Co sprawdzić:

  • Czy decyzje o premii, awansie lub odmowie podwyżki są należycie uzasadnione, a nie tylko oparte na „wyniku z systemu”.
  • Czy pracownik może otrzymać wyjaśnienie, skąd wziął się konkretny rating i jakie dane na niego wpłynęły.
  • Czy stosowane wskaźniki nie faworyzują określonego stylu pracy kosztem innych, równie dopuszczalnych (np. praca szybsza vs. dokładniejsza).

Naliczanie wynagrodzeń, dodatków i premii

Obszar płac kusi automatyzacją: AI pomaga wyszukiwać błędy, wykrywać anomalie w naliczeniach, prognozować koszty wynagrodzeń. Dotyka jednak podstawowego roszczenia pracowniczego – prawa do prawidłowo naliczonego wynagrodzenia.

Przykładowe zastosowania:

  • wstępne naliczanie list płac na podstawie danych o czasie pracy, dodatkach i nieobecnościach,
  • wykrywanie nietypowych wzrostów kosztów wynagrodzeń w konkretnych działach,
  • propozycje indeksacji płac lub zmian w systemach premiowych w oparciu o dane rynkowe.

Najpoważniejsze problemy pojawiają się, gdy:

  • algorytm błędnie interpretuje dane wejściowe (np. nie rozróżnia typów nieobecności),
  • system proponuje nowe progi premiowe, które w praktyce dyskryminują określone grupy (np. osoby na częstych zwolnieniach lekarskich),
  • nie ma jasnego trybu korekty błędów i naprawy skutków finansowych po stronie pracownika.

Krok 1: zapewnić, że AI pełni rolę wspierającą, a nie zastępuje obowiązku merytorycznej kontroli listy płac przez dział kadr i płac.
Krok 2: wprowadzić procedurę szybkiej korekty wynagrodzenia, gdy błąd algorytmu zostanie wykryty, oraz jasne informacje dla pracowników, jak zgłosić nieprawidłowość.
Krok 3: dokumentować, jakie reguły i parametry stoją za obliczaniem zmiennych składników wynagrodzenia (progi, wskaźniki).

Co sprawdzić:

  • Czy wynagrodzenia i dodatki są naliczane zgodnie z regulaminem wynagradzania, a nie zmodyfikowanymi „po cichu” regułami algorytmu.
  • Czy testy systemu przed wdrożeniem obejmowały nietypowe przypadki (np. kilka rodzajów urlopów w jednym okresie, zmiana etatu).
  • Czy informacje o zasadach naliczania premii są zrozumiałe dla pracowników i zgodne z faktycznym działaniem systemu.

Szkolenia, rozwój i ścieżki karier

AI bywa używana do identyfikowania luk kompetencyjnych, rekomendowania szkoleń i projektowania ścieżek rozwoju. Formalnie takie narzędzia nie zawsze kojarzą się z ryzykiem prawnym, ale w praktyce mogą kształtować dostęp do awansów i benefitów rozwojowych.

Narzędzia tego typu:

  • analizują historię stanowisk, ocen i szkoleń,
  • oceniają prawdopodobieństwo sukcesu na danej ścieżce kariery,
  • proponują konkretne kursy lub programy rozwojowe.

Jeżeli system konsekwentnie kieruje dane grupy pracowników (np. osoby po określonym wieku) do węższego katalogu ścieżek, może to prowadzić do zarzutu ograniczania dostępu do awansu ze względu na chronione cechy.

Krok 1: jasno określić, czy rekomendacje AI mają charakter wyłącznie pomocniczy, czy realnie wpływają na decyzje przełożonych.
Krok 2: zapewnić, by pracownik miał możliwość zakwestionowania „profilu rozwojowego” i zgłoszenia innych preferencji.
Krok 3: monitorować, które grupy pracowników najczęściej otrzymują rekomendacje udziału w programach talentowych i awansach.

Co sprawdzić:

  • Czy zasady przydzielania szkoleń i programów rozwojowych są opisane w regulaminach i zgodne z rzeczywistymi decyzjami wspieranymi przez AI.
  • Czy system nie wyklucza automatycznie osób po dłuższych przerwach zawodowych (np. urlop macierzyński, rodzicielski) z puli kandydatów do programów talentowych.
  • Czy dane o zainteresowaniach, planach życiowych lub zdrowiu nie są wykorzystywane do oceny „potencjału rozwojowego”.

Zgłoszenia naruszeń i relacje ze związkami zawodowymi

Niektóre organizacje rozważają wykorzystanie AI do analizy zgłoszeń w systemach whistleblowingowych, a nawet do „nastrojometrii” – analizy wiadomości e‑mail, ankiet czy czatów pod kątem ryzyka konfliktów lub mobbingu. To szczególnie wrażliwy obszar.

Takie narzędzia mogą:

  • kategoryzować zgłoszenia naruszeń i priorytetyzować je,
  • analizować treść wiadomości pod kątem słów kluczowych związanych z dyskryminacją, mobbingiem, molestowaniem,
  • oceniać „nastroje” w zespołach i wykrywać potencjalne konflikty.

Ryzyka są oczywiste: naruszenie tajemnicy komunikacji, nadmierny monitoring, przetwarzanie danych o szczególnych kategoriach (np. poglądy polityczne, wyznanie) oraz ingerencja w działalność związkową.

Krok 1: ustalić jednoznacznie, czy analiza treści komunikacji pracowników jest w ogóle dopuszczalna w świetle regulaminu pracy, RODO i przepisów o monitoringu.
Krok 2: wyłączyć z automatycznej analizy wszelką komunikację prywatną oraz kanały zastrzeżone dla związków zawodowych i reprezentacji pracowniczej.
Krok 3: jasno poinformować pracowników, jeśli jakiekolwiek narzędzie analizuje treść lub metadane ich komunikacji.

Co sprawdzić:

  • Czy stosowane narzędzia nie przetwarzają w sposób systematyczny danych o przynależności związkowej lub światopoglądzie.
  • Czy w politykach wewnętrznych opisano zakres i cel ewentualnej analizy komunikacji z użyciem AI.
  • Czy istnieje bezpieczny kanał zgłaszania naruszeń, który nie jest filtrowany ani „oceniany” przez algorytm.
Drewniane kostki Scrabble układające się w słowa AI i NEWS
Źródło: Pexels | Autor: Markus Winkler

Zgoda, informacja, przejrzystość: co trzeba powiedzieć pracownikom i kandydatom

Podstawowe obowiązki informacyjne wobec kandydatów

Kandydat, którego dane trafiają do systemu rekrutacyjnego z modułem AI, musi wiedzieć, że jego zgłoszenie będzie przetwarzane w taki sposób. To nie jest „miły dodatek”, lecz obowiązek wynikający z RODO i przyszłych przepisów AI Act.

Minimalny zakres informacji to:

  • kto jest administratorem danych (pracodawca, grupa kapitałowa),
  • jaki jest cel przetwarzania (rekrutacja na konkretne stanowisko, przyszłe rekrutacje),
  • jakie narzędzia AI są wykorzystywane i w jakim zakresie (np. automatyczna preselekcja CV),
  • czy decyzje mają charakter zautomatyzowany i jakie mogą mieć skutki dla kandydata,
  • jakie prawa ma kandydat (sprzeciw, żądanie interwencji człowieka, wyjaśnienia, odwołania).

Informacja dla pracowników – inne wymogi niż przy rekrutacji

Pracownik ma silniejszą pozycję niż kandydat: pozostaje w stałej relacji z pracodawcą, często przez lata, a systemy AI mogą wpływać na niemal każdy aspekt tej relacji. Informacja o przetwarzaniu nie może ograniczać się do ogólnej klauzuli RODO w umowie.

Zakres informacji dla pracowników powinien obejmować co najmniej:

  • jakie narzędzia z elementami AI są używane w organizacji (z podziałem na rekrutację, ocenę, planowanie grafików, płace, szkolenia),
  • jakiego rodzaju dane pracownika są przetwarzane (np. dane z systemu e‑mail, CRM, systemu czasu pracy),
  • jakie decyzje są wspierane przez te narzędzia i które mają częściowo zautomatyzowany charakter,
  • czy istnieje profilowanie pracowników i w jakim celu (ocena ryzyka odejścia, potencjału rozwojowego, efektywności),
  • jak można zgłosić sprzeciw lub poprosić o interwencję człowieka w konkretnym procesie.

Dobrą praktyką jest oddzielenie ogólnej informacji (np. w polityce prywatności) od szczegółowych komunikatów związanych z konkretnymi wdrożeniami w HR. Pracownik, który dowiaduje się o nowym narzędziu monitorującym efektywność, powinien jednocześnie otrzymać skrócone, praktyczne wyjaśnienie, co ono robi i jak wpływa na jego sytuację.

Typowy błąd to komunikat w stylu „wdrażamy nowy system HR, wszystko bez wpływu na waszą sytuację”, podczas gdy w tle powstaje rozbudowany model scoringowy, który później służy przy awansach i premiach.

Krok 1: zmapować wszystkie narzędzia AI/ML w HR i przypisać je do poszczególnych procesów (czas pracy, ocena, płace, szkolenia).
Krok 2: przygotować zbiorczą politykę informacyjną plus krótkie „noty informacyjne” przy każdym nowym narzędziu.
Krok 3: zaplanować stały kanał zadawania pytań przez pracowników (np. dedykowana skrzynka, Q&A na intranecie).

Co sprawdzić:

  • Czy obecne klauzule informacyjne obejmują konkretne zastosowania AI, a nie tylko ogólne „przetwarzanie w systemach informatycznych”.
  • Czy w praktyce pracownicy wiedzą, które decyzje są choćby częściowo oparte na algorytmach, czy dowiadują się o tym „po fakcie”.
  • Czy ktoś w organizacji jest wyznaczony do odpowiadania na pytania o logikę działania systemów AI w HR.

Czy potrzebna jest zgoda – i dlaczego najczęściej nie

Kuszące bywa oparcie przetwarzania na „zgodzie pracownika”, szczególnie przy nowych narzędziach AI. W relacji pracy zgoda jest jednak obciążona poważnym ryzykiem: trudno mówić o dobrowolności, gdy odmawiający może obawiać się konsekwencji.

Podstawą prawną przetwarzania danych w HR z użyciem AI częściej będzie:

  • konieczność wykonania umowy o pracę,
  • obowiązek prawny (np. ewidencja czasu pracy, rozliczenia podatkowe),
  • prawnie uzasadniony interes pracodawcy (np. organizacja pracy, bezpieczeństwo informacji).

Zgoda może mieć sens w wąskich, dodatkowych obszarach, np. udział w fakultatywnym programie rozwoju opartym na analizie danych osobistych wykraczających poza standardowe dane pracownicze. Nawet wtedy musi istnieć realna alternatywa dla osób, które nie chcą jej udzielić.

Krok 1: przeanalizować każde zastosowanie AI i przypisać do niego właściwą podstawę prawną (umowa, obowiązek, uzasadniony interes, zgoda).
Krok 2: unikać „na wszelki wypadek” zgód pracowniczych tam, gdzie istnieje inna, stabilniejsza podstawa.
Krok 3: jeżeli zgoda jest używana – zapewnić prostą możliwość jej wycofania bez negatywnych skutków.

Co sprawdzić:

  • Czy zgody w dokumentach HR nie są nadużywane do usprawiedliwienia każdego nowego narzędzia AI.
  • Czy odwołanie zgody rzeczywiście zatrzymuje określone przetwarzanie, również w systemach z elementami AI.
  • Czy ocena ryzyka (DPIA) nie wskazuje na konieczność dodatkowych zabezpieczeń zamiast „ratowania się” zgodą.

Wyjaśnialność: jak mówić o logice działania AI po ludzku

RODO i AI Act nie wymagają ujawniania całego kodu źródłowego, natomiast oczekują, że osoba, której dane dotyczą, otrzyma „zrozumiałe informacje” o logice działania systemu oraz wpływie na nią. To najtrudniejszy element przy złożonych modelach uczenia maszynowego.

Praktyczne podejście:

  • opisać cele modelu (np. „system szacuje dopasowanie CV do wymagań stanowiska” lub „system przewiduje obciążenie grafików w kolejnych tygodniach”),
  • wyjaśnić główne kategorie danych wejściowych (np. doświadczenie, lokalizacja, historia wyników),
  • pokazać przykładowy przepływ danych (skąd pochodzą, w jakich systemach są łączone, jak długo są przechowywane),
  • wskazać, kiedy i jak człowiek ma możliwość interwencji i zmiany decyzji.

Pracownik nie musi znać „wag” poszczególnych neuronów w sieci, ale powinien rozumieć, że np. jego częste nadgodziny zwiększają ryzyko przypisania do „grupy wysokiego wypalenia”, co może skutkować rozmową z przełożonym, a nie gorszym traktowaniem płacowym.

Krok 1: przygotować krótkie, nietechniczne opisy modeli używanych w HR, konsultując je z działem IT/dostawcą systemu.
Krok 2: przetestować te opisy na kilku osobach spoza działu – jeżeli nie rozumieją, opis jest zbyt techniczny.
Krok 3: zapewnić standardową odpowiedź na prośbę o wyjaśnienie decyzji wspieranej przez AI (np. wzór odpowiedzi kadrowej).

Co sprawdzić:

  • Czy dokumentacja dostarczona przez vendorów systemów zawiera informacje, które da się przekuć na zrozumiały opis dla pracowników.
  • Czy HR posiada gotowy proces obsługi wniosków o „wyjaśnienie decyzji” lub „interwencję człowieka”.
  • Czy przełożeni wiedzą, jak tłumaczyć wyniki systemu, a nie zasłaniają się hasłem „tak wyliczył algorytm”.

Automatyczne decyzje, profilowanie i ryzyko dyskryminacji

Profilowanie pracowników – kiedy to już „zautomatyzowana decyzja”

Wiele systemów HR tworzy profile: rating efektywności, poziom ryzyka odejścia, indeks „zaangażowania”. Profilowanie samo w sobie nie jest zakazane, ale w połączeniu z automatycznym działaniem może wpaść w reżim art. 22 RODO – zakazu podejmowania wobec pracownika decyzji opartych wyłącznie na zautomatyzowanym przetwarzaniu, wywołujących dla niego istotne skutki.

Decyzja będzie ryzykowna, gdy:

  • jest oparta tylko na wyniku algorytmu, bez faktycznej weryfikacji przez człowieka,
  • ma wymierne skutki dla pracownika (finansowe, organizacyjne, wizerunkowe),
  • pracownik nie ma realnej możliwości odwołania się ani przedstawienia swojego stanowiska.

Przykład: system oceny efektywności automatycznie obniża premię kwartalną wszystkim osobom z wynikiem poniżej progu, a przełożony nie analizuje indywidualnych sytuacji (choroba, awaria systemów, nietypowe zadania).

Krok 1: zidentyfikować wszystkie decyzje wobec pracowników, w których wynik algorytmu jest bezpośrednio przekładany na skutek (np. obniżka premii, odmowa awansu, zmiana grafiku).
Krok 2: wprowadzić „bufor ludzki” – obowiązkowy przegląd wyników i możliwość odstępstwa od rekomendacji systemu.
Krok 3: udokumentować proces – kto i na jakiej podstawie może zmienić decyzję sugerowaną przez algorytm.

Co sprawdzić:

  • Czy regulaminy premiowania, awansów, ruchów kadrowych nie są napisane tak, że decyzja faktycznie „spływa” z systemu bez weryfikacji.
  • Czy w historii decyzji widać przypadki, gdy człowiek zmienił lub skorygował rekomendację AI.
  • Czy pracownik ma formalny tryb odwoławczy od decyzji opartych na danych z systemów analitycznych.

Ukryte źródła uprzedzeń w danych HR

Systemy AI uczą się na danych historycznych. Jeżeli przez lata określone grupy miały mniejsze szanse na awans (np. młode matki, osoby 50+), algorytm uzna to za „wzorzec sukcesu” i powieli go w przyszłości. Dyskryminacja staje się wtedy mniej widoczna, ale bardziej systematyczna.

Typowe źródła biasu:

  • historie awansów mocno skorelowane z płcią, wiekiem lub formą zatrudnienia,
  • dane o nieobecnościach interpretowane bez kontekstu (częste L4 vs. urlopy rodzicielskie),
  • wyniki ocen rocznych obciążone subiektywnymi preferencjami przełożonych,
  • dane językowe w CV i listach motywacyjnych (np. inne określenia używane przez kobiety i mężczyzn).

Konieczna jest więc nie tylko analiza algorytmu, ale przede wszystkim jakości i struktury danych, którymi ten algorytm jest karmiony. Czysty technicznie model może wzmacniać stare schematy.

Krok 1: przeprowadzić przegląd danych historycznych używanych do trenowania lub konfiguracji modeli (awans, premie, oceny, absencje).
Krok 2: zbadać rozkład decyzji w odniesieniu do kluczowych kryteriów ochronnych (płeć, wiek, niepełnosprawność, rodzicielstwo, forma zatrudnienia).
Krok 3: w razie wykrycia silnych nierówności – ograniczyć wpływ takich zmiennych na model lub w ogóle je wyłączyć, a tam, gdzie to niemożliwe, wprowadzić dodatkową kontrolę ludzką.

Co sprawdzić:

  • Czy vendor systemu udostępnia mechanizmy audytu biasu (raporty, wskaźniki równego traktowania).
  • Czy organizacja prowadzi regularne analizy skutków działania algorytmów według grup pracowników, a nie tylko globalnych średnich.
  • Czy HR i compliance rozumieją, które zmienne w danych HR mogą pośrednio ujawniać cechy chronione (np. przerwy w zatrudnieniu).

Testy „antydyskryminacyjne” przed i po wdrożeniu

Wprowadzenie narzędzia AI do procesu kadrowego powinno być poprzedzone testami nie tylko technicznymi, ale również prawnymi. Chodzi o sprawdzenie, czy jego użycie nie prowadzi do nieuzasadnionego różnicowania pracowników lub kandydatów.

Przydatna jest prosta procedura:

  • w fazie pilotażowej systemu – porównanie wyników AI z decyzjami ludzkimi w analogicznych przypadkach,
  • analiza rozkładu wyników według grup (płeć, wiek, rodzicielstwo, staż),
  • sprawdzenie, czy istnieje alternatywne, mniej inwazyjne narzędzie osiągające podobny cel (test proporcjonalności).

Po wdrożeniu testy trzeba powtarzać. Modele uczące się na nowych danych mogą w czasie zmieniać swoje zachowanie. Zdarza się, że pierwsza wersja jest w miarę neutralna, a kolejne aktualizacje, karmione nowymi danymi, zaczynają „skręcać” w stronę preferowania określonej grupy.

Krok 1: zaplanować fazę testową z udziałem realnych danych, ale jeszcze bez automatycznego wywoływania skutków dla pracownika.
Krok 2: ustalić wskaźniki równego traktowania (np. udział kobiet/mężczyzn w najwyższych ratingach, rozkład odmów awansu).
Krok 3: wprowadzić harmonogram okresowych przeglądów algorytmu (np. co pół roku) z udziałem HR, prawników i – tam gdzie to właściwe – przedstawicieli pracowników.

Co sprawdzić:

  • Czy każdemu wdrożeniu AI w HR towarzyszy dokumentacja testów i ich wyników.
  • Czy decyzje o utrzymaniu lub modyfikacji modelu są podejmowane na podstawie danych, a nie tylko subiektywnych wrażeń dostawcy.
  • Czy pracownicy lub ich przedstawiciele mieli możliwość zgłoszenia uwag podczas pilotażu kluczowych narzędzi.

Równe traktowanie przy wynagrodzeniach i awansach wspieranych przez AI

Prawo pracy zakazuje dyskryminacji m.in. w zakresie wynagrodzenia, awansów i dostępu do szkoleń. Gdy te decyzje są choćby częściowo oparte na analizie algorytmicznej, pracodawca nadal odpowiada za ich zgodność z zasadą równego traktowania.

Szczególnie wrażliwe są sytuacje, gdy:

  • system rekomenduje poziom płac w oparciu o dane rynkowe, które już zawierają historyczne różnice płacowe między płciami,
  • algorytm oceny efektywności lepiej „widzi” wyniki osób pracujących w nadgodzinach niż tych, które łączą pracę z obowiązkami rodzinnymi,
  • narzędzie do tworzenia ścieżek karier częściej proponuje awanse osobom w określonym wieku lub bez przerw w zatrudnieniu.

W sporze sądowym pracodawca będzie musiał wykazać, że różnice w traktowaniu mają obiektywne, proporcjonalne uzasadnienie, a nie wynikają z „czarnej skrzynki”. Tłumaczenie „tak policzył system” nie zwalnia z odpowiedzialności.

Najczęściej zadawane pytania (FAQ)

Jakie procesy kadrowo‑płacowe najbardziej opłaca się automatyzować z użyciem AI?

Krok 1: przejrzyj wszystkie powtarzalne czynności HR – takie, które są oparte na danych i zajmują dużo czasu. Najczęściej sens ma automatyzacja w obszarach: rekrutacji (wstępna selekcja CV, chatboty dla kandydatów), planowania grafików i czasu pracy, naliczania wynagrodzeń i premii, analizy absencji i rotacji oraz wsparcia ocen okresowych.

Krok 2: przy każdym procesie zadaj pytanie: czy AI realnie rozwiąże problem biznesowy (opóźnienia, błędy, skargi), czy tylko „upiększy” obecny chaos. Częsty błąd to kupno narzędzia AI „bo inni też mają”, bez listy konkretnych bolączek do zaadresowania.

Co sprawdzić: czy problem jest udokumentowany (np. skargi, korekty list płac), czy można go rozwiązać prostszą zmianą organizacyjną, oraz jaki fragment procesu można bezpiecznie przekazać algorytmowi, a gdzie decyzja musi zostać po stronie człowieka.

Czym różni się prosta automatyzacja (RPA) od AI w HR z punktu widzenia prawa pracy?

Prosta automatyzacja (np. RPA, system reguł „jeśli – to”) wykonuje dokładnie to, co człowiek zaprogramuje. Przykład: „jeśli pracownik ma 160 godzin i wynik sprzedaży powyżej X, nalicz premię Y”. Taki mechanizm łatwo opisać w regulaminie i wyjaśnić przed sądem czy PIP, bo logika jest przejrzysta.

AI/ML uczy się na danych historycznych, szuka wzorców i prognozuje wyniki bez prostych reguł. Typowy przykład to model przewidujący „szansę sukcesu kandydata na stanowisku” na podstawie wielu cech. Tu pojawia się problem „czarnej skrzynki” – trudniej pokazać, dlaczego podjęto taką, a nie inną decyzję.

Co sprawdzić: czy rozwiązanie stosuje sztywne reguły, czy algorytmy uczące się; czy decyzja ma skutki prawne (np. brak awansu, niższa premia); oraz czy jesteś w stanie w zrozumiały sposób opisać logikę działania systemu w dokumentach wewnętrznych i w razie kontroli.

Czy można podejmować decyzje kadrowe wyłącznie na podstawie AI (np. w rekrutacji lub awansach)?

W praktyce decyzje w pełni zautomatyzowane są bardzo ryzykowne. Jeżeli narzędzie AI samodzielnie decyduje o odmowie zatrudnienia, braku awansu czy wysokości wynagrodzenia, wchodzisz w obszar zautomatyzowanego podejmowania decyzji i profilowania w rozumieniu RODO oraz wprost dotykasz przepisów o równości i zakazie dyskryminacji.

Bezpieczniejszy model to „AI jako wsparcie”: algorytm robi wstępną selekcję czy scoring, ale decyzję podejmuje człowiek, który realnie analizuje wyniki i potrafi je zakwestionować. Formalne „klepnięcie” tego, co wypluł system, bez krytycznego przeglądu, w razie sporu zostanie ocenione jak decyzja algorytmu.

Co sprawdzić: czy proces przewiduje faktyczny udział człowieka (możliwość zmiany decyzji AI), czy przebieg procesu jest udokumentowany, oraz czy pracownik/kandydat ma kanał odwoławczy od decyzji opartej na rekomendacji systemu.

Jakie przepisy prawa pracy trzeba wziąć pod uwagę przy wdrażaniu AI w kadrach i płacach?

Krok 1: zmapuj proces, który chcesz zautomatyzować, na konkretne przepisy. Dla rekrutacji kluczowe są regulacje o nawiązaniu stosunku pracy i równości w zatrudnieniu. Dla grafików – przepisy o czasie pracy, odpoczynku, pracy w nocy, godzinach nadliczbowych. Dla płac – regulacje o wynagrodzeniu, dodatkach, ewidencji czasu pracy.

Krok 2: jeśli AI wspiera monitoring (aktywności, lokalizacji, wydajności), przeanalizuj przepisy o monitoringu wizyjnym i narzędzi służbowych, a także BHP tam, gdzie system ma wpływać na bezpieczeństwo i obciążenie pracą.

Co sprawdzić: czy regulamin pracy i wynagradzania jest aktualny i spójny z logiką systemu; które artykuły Kodeksu pracy dotykają danego procesu; czy po wdrożeniu wciąż można wykazać, że harmonogramy i naliczanie wynagrodzeń są zgodne z przepisami – mimo użycia AI.

Jak stosować RODO przy wykorzystywaniu danych pracowników w systemach AI HR?

Krok 1: określ podstawę prawną dla każdego celu przetwarzania – zwykle będzie to obowiązek prawny (np. rozliczenia płacowe) lub uzasadniony interes pracodawcy (np. analityka rotacji). Na zgodzie opieraj się ostrożnie, bo w relacji pracodawca–pracownik trudniej ją uznać za dobrowolną.

Krok 2: ogranicz zakres i czas przetwarzania – zbieraj tylko dane niezbędne do konkretnego celu i z góry ustal okres retencji (np. jak długo trzymasz CV czy logi z monitoringu). Szczególne kategorie danych (zdrowie, poglądy, przynależność związkowa) nie powinny trafiać do modeli oceniających pracownika.

Co sprawdzić: podstawy prawne (art. 6 RODO) dla każdego modułu systemu, politykę retencji danych, treść klauzul informacyjnych dla pracowników i kandydatów oraz to, czy dane w modelach AI nie wykraczają poza to, co jest uzasadnione celem i przepisami.

Jak ograniczyć ryzyko dyskryminacji przy użyciu AI w rekrutacji i ocenie pracowników?

Pierwszy krok to kontrola danych, na których uczy się i działa system. Jeżeli w danych historycznych były uprzedzenia (np. preferowanie jednej płci, wieku czy uczelni), model je powieli. Drugi krok to jasne, mierzalne kryteria oceny (kompetencje, wyniki, doświadczenie), opisane w politykach HR i możliwe do skontrolowania.

W praktyce warto wdrożyć regularne audyty wyników AI – np. analizę, czy algorytm nie obniża szans określonej grupy kandydatów bez obiektywnej przyczyny. Dobrą praktyką jest też łączenie oceny algorytmu z oceną człowieka oraz prowadzenie dokumentacji decyzji (na jakiej podstawie odrzucono/awansowano daną osobę).

Co sprawdzić: jakie cechy bierze pod uwagę system (czy nie ma tam danych wrażliwych ani ich pośrednich „zastępników”), czy wyniki różnicują grupy pracowników w podejrzany sposób, oraz czy w procedurach HR jest opisany sposób weryfikacji i korygowania decyzji wspieranych przez AI.

Czy pracodawca może „zrzucić winę” na system AI, jeśli dojdzie do błędów w listach płac lub grafikach?

Nie. Odpowiedzialność za zgodność z prawem pracy zawsze ponosi pracodawca, nawet jeśli technicznie decyzję podjął system. Błędne naliczenie wynagrodzenia, źle ułożone grafiki naruszające przepisy o czasie pracy czy dyskryminujące decyzje kadrowe nie mogą zostać usprawiedliwione tym, że „tak policzył algorytm”.

Najważniejsze punkty

  • Krok 1: Zanim wdrożysz AI w kadrach i płacach, zdefiniuj konkretne problemy biznesowe (opóźnienia w wypłatach, chaos w grafikach, zarzuty o niesprawiedliwe premie) i oceń, czy nie da się ich rozwiązać prostszymi środkami niż algorytmy.
  • Krok 2: Wybieraj procesy, które faktycznie zyskują na automatyzacji AI – przede wszystkim rekrutację, planowanie czasu pracy, naliczanie zmiennych składników wynagrodzenia, analizę absencji/rotacji oraz ocenę okresową – i jasno oddziel, co robi system, a co musi ocenić człowiek.
  • Kluczowa różnica: prosta automatyzacja (reguły „jeśli–to”, RPA) jest przejrzysta i łatwa do wyjaśnienia przed sądem lub PIP, natomiast modele AI/ML uczące się na danych pracowników trudniej „rozebrać na czynniki pierwsze”, więc wymagają większej transparentności i kontroli.
  • Im bardziej samodzielny algorytm podejmujący decyzje (profilowanie, automatyczne scoringi kandydatów, rekomendacje awansów), tym wyższe wymagania prawne: trzeba zapewnić możliwość wyjaśnienia decyzji, audytu działania i realnego wpływu człowieka na wynik.
  • Zysk biznesowy jest realny (oszczędność czasu, mniej błędów w naliczaniu płac, spójniejsze decyzje, lepsza analityka), ale punkty zapalne to decyzje o zatrudnianiu i zwalnianiu, wynagrodzeniu i czasie pracy, monitoring oraz przetwarzanie danych osobowych – tu najszybciej pojawiają się spory.
Poprzedni artykułJak odkrywać najlepsze bary i restauracje w europejskich stolicach kroku po kroku
Izabela Sadowski
Izabela Sadowski od lat wspiera przedsiębiorców w planowaniu rozwoju firmy i budowaniu stabilnych fundamentów finansowych. Pracowała jako doradca w instytucjach otoczenia biznesu, pomagając w przygotowaniu biznesplanów, wniosków o dotacje i analiz opłacalności nowych projektów. W swoich tekstach łączy wiedzę o finansowaniu z praktycznym podejściem do strategii wzrostu: pokazuje, jak łączyć różne źródła kapitału, minimalizować ryzyko i dbać o rentowność. Każdy artykuł opiera na sprawdzonych źródłach, konsultacjach z ekspertami branżowymi i doświadczeniach firm, które przeszły drogę od pomysłu do skalowania działalności.