- 1 10 tys. miejsc pracy przy budowie elektrowni jądrowej (65 opinii)
- 2 Policjanci skarżą się na warunki pracy (206 opinii)
- 3 Za święto w niedzielę też dzień wolny? Jest petycja (58 opinii)
- 4 Rekordziści zarobili na zwrocie butelek (363 opinie)
- 5 Masz 7145,33 zł brutto? Takie są zarobki w Polsce (158 opinii)
Sztuczna inteligencja w ocenie pracy. Jakie prawa ma pracownik?
Coraz częściej w firmach pojawiają się systemy oparte na sztucznej inteligencji, które monitorują i oceniają pracę zespołu. Dla niektórych pracowników to wsparcie w organizacji pracy, dla innych - źródło niepewności i poczucia niesprawiedliwości. Nasz czytelnik pyta, jakie prawa przysługują mu w związku z decyzjami kadrowymi podejmowanymi na podstawie takich narzędzi.
- Coraz częstsze zastosowanie AI w pracy
- Monitoring pracowników a prawo pracy
- Obowiązki informacyjne pracodawcy wobec pracowników
- Wymogi obiektywności i sprawiedliwości oceny pracowników
- Automatyzm decyzji a przepisy RODO
- Regulacje unijne dotyczące AI w zatrudnieniu
- Podsumowanie i sytuacja czytelnika
Od jakiegoś czasu mój pracodawca zaczął wykorzystywać narzędzia oparte na sztucznej inteligencji do oceny pracy zespołu - system analizuje czas spędzony przy komputerze, liczbę wykonanych zadań i na tej podstawie tworzy raporty dotyczące efektywności.
Problem w tym, że wyniki tych analiz zaczęły mieć realny wpływ na decyzje kadrowe - przydzielanie projektów, premie, a nawet rozmowy o dalszej współpracy. Nie mamy jednak wglądu w to, jakie dokładnie dane są brane pod uwagę ani w jaki sposób system je interpretuje. Część pracowników ma poczucie, że ocena jest niesprawiedliwa i nie oddaje faktycznej jakości pracy.
Chciałbym zapytać, czy pracodawca może w taki sposób monitorować i oceniać pracowników bez jasnych zasad i przejrzystości. Czy mamy prawo domagać się informacji, jakie dane są zbierane i jak są wykorzystywane? Czy decyzje kadrowe oparte wyłącznie na analizach systemu mogą być kwestionowane?
Na pytanie odpowiada Andrzej Fortuna - radca prawny z kancelarii Radcy Prawnego Fortuna
Coraz częstsze zastosowanie AI w pracy
Faktem jest, że w ostatnim czasie następuje dynamiczny rozwój sztucznej inteligencji oraz coraz większe jej przenikanie do różnych sfer życia gospodarczego i społecznego, w tym także do zakładów pracy. Narzędzia oparte na AI coraz częściej są wykorzystywane przez pracodawców - zarówno do zarządzania podmiotem, jak i w strukturze wewnętrznej - dotyczącej pracowników. Z jednej strony oczekuje się optymalizacji wynikającej z takich metod, z drugiej jednak należy mieć na uwadze poważne wyzwania prawne i etyczne związane z ich stosowaniem.
Monitoring pracowników a prawo pracy
Kodeks pracy, w art. 222-223 odnosi się do monitoringu stosowanego w zakładzie pracy - bardziej szczegółowo omawia monitoring wizyjny oraz monitoring poczty elektronicznej, jednakże dopuszcza także inne formy monitoringu, regulując ich ramy prawne. Przede wszystkim taki monitoring może być stosowany, jeżeli jest to konieczne do zapewnienia organizacji pracy umożliwiającej pełne wykorzystanie czasu pracy oraz właściwego użytkowania udostępnionych pracownikowi narzędzi pracy.
Monitoring nie może naruszać tajemnicy korespondencji oraz innych dóbr osobistych pracownika. Cele, zakres oraz sposób zastosowania monitoringu ustala się w układzie zbiorowym pracy lub w regulaminie pracy albo w obwieszczeniu (jeżeli pracodawca nie jest objęty układem zbiorowym pracy lub nie jest obowiązany do ustalenia regulaminu pracy).
Pracodawca informuje pracowników o wprowadzeniu monitoringu, w sposób przyjęty u danego pracodawcy, nie później niż 2 tygodnie przed jego uruchomieniem. Natomiast przed dopuszczeniem pracownika do pracy, pracodawca przekazuje pracownikowi w formie papierowej lub elektronicznej informacje o celach, zakresie i sposobie zastosowania monitoringu. Monitoring nie może naruszać regulacji o ochronie danych osobowych (RODO), w tym na pracodawcy ciążą obowiązki informacyjne wynikające z tych regulacji.
AI za kulisami biznesu. Gdańska firma pracuje dla globalnych gigantów
Obowiązki informacyjne pracodawcy wobec pracowników
Wymogi obiektywności i sprawiedliwości oceny pracowników
W tym kontekście, należy zwrócić uwagę na art. 94 pkt 9 Kodeksu pracy, który stanowi, że jednym z podstawowych obowiązków pracodawcy jest stosowanie obiektywnych i sprawiedliwych kryteriów oceny pracowników oraz wyników ich pracy. Z powyższego wprost należy wyprowadzić wniosek, iż systemy AI nie mogą być wykorzystywane w sposób automatyczny, arbitralny, nieprzejrzysty, nieweryfikowalny - albowiem prowadzi to do dużych zagrożeń w zakresie naruszenia praw pracowniczych, w tym naruszenia zasady równego traktowania w zatrudnieniu.
Czym innym bowiem jest stosowanie sztucznej inteligencji jako narzędzia wsparcia do analizy danych, sygnalizacji zdarzeń itd. - które to wsparcie staje się podstawą podjęcia później samodzielnej decyzji ludzkiej (uwzględniającej dane zebrane automatycznie oraz inne dane), a czym innym jest zautomatyzowanie decyzji - w istocie podejmowanej "przez komputer". W środowisku pracy w mojej ocenie taka automatyzacja nie może mieć miejsca. Doprowadzałoby to bowiem do sytuacji, gdy decyzja co do praw pracowniczych zależy od wyniku - z reguły niedoskonałego - algorytmu, który z zasady opiera się na danych statystycznych i innych mierzalnych wynikach, gdy tymczasem w zatrudnieniu pracowniczym przy wielu decyzjach kadrowych należy także uwzględniać staranność, zaangażowanie, wpływ czynników niezależnych od pracownika, nieporównywalność spraw załatwianych przez różnych pracowników i szereg innych okoliczności.
Innymi słowy, korzystanie z narzędzi AI może być co najwyżej wsparciem dla decyzji ludzkiej - przy czym udział człowieka winien być realny, a nie opierać się jedynie na automatycznej akceptacji wyników algorytmu. Decyzja pracodawcy winna być weryfikowalna, oparta na uzasadnionych przesłankach i podlega kontroli sądowej.
Automatyzm decyzji a przepisy RODO
Automatyczne podejmowanie decyzji w oparciu o algorytm co do zasady jest niedopuszczalne w świetle art. 22 ust. 1 RODO, który stanowi, że osoba, której dane dotyczą, ma prawo do tego, by nie podlegać decyzji, która opiera się wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, i wywołuje wobec tej osoby skutki prawne lub w podobny sposób istotnie na nią wpływa. Niewątpliwie przyznawanie awansu, premii, czy podejmowanie decyzji w przedmiocie dalszego zatrudnienia - wywołuje skutki prawne i istotnie wpływa na pracownika.
W świecie pełnym tego, co sztuczne, jeszcze bardziej liczy się żywe
Regulacje unijne dotyczące AI w zatrudnieniu
Należy też koniecznie zwrócić uwagę na Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) - tzw. AI Act. Akt ten reguluje zasady tworzenia i wykorzystywania sztucznej inteligencji i stopniowo jest wprowadzany do polskiego systemu prawnego (a w przeważającej mierze wejdzie w życie w dniu 02.08.2026 r.). Nadto na etapie tworzenia są polskie regulacje w tym przedmiocie.
AI Act definiuje jako systemy wysokiego ryzyka m.in.:
- systemy AI przeznaczone do wykorzystywania do celów rekrutacji lub wyboru osób fizycznych, w szczególności do celów umieszczania ukierunkowanych ogłoszeń o pracę, analizowania i filtrowania podań o pracę oraz do oceny kandydatów, jak również
- systemy AI przeznaczone do wykorzystywania do celów podejmowania decyzji wpływających na warunki stosunków pracy, decyzji o awansie lub rozwiązaniu umownego stosunku pracy, przydzielania zadań w oparciu o indywidualne zachowanie lub cechy osobowości lub charakter lub do monitorowania lub oceny wydajności i zachowania osób pozostających w takich stosunkach.
System wysokiego ryzyka wymagać będzie stosownego nadzoru ze strony kompetentnego człowieka, a jego stosowanie wiązało się będzie z obowiązkiem dochowania szczegółowych procedur.
Podsumowanie i sytuacja czytelnika
Podsumowując, w mojej ocenie decyzje kadrowe oparte jedynie na zautomatyzowanych procesach, bez realnego nadzoru i wpływu człowieka - nie wpisują się w wymogi stawiane prawem i realnie mogą prowadzić do naruszenia praw pracowniczych, w tym w szczególności do dyskryminacji. Natomiast wsparcie systemem AI w podejmowaniu przez pracodawcę samodzielnej decyzji, uwzględniającej ogół okoliczności, a nie tylko statystyki - jest dopuszczalne.
Pracownicy mają prawo żądać od pracodawcy wskazania szczegółowych zasad stosowanego wobec nich monitoringu, jak również szczegółowych podstaw podjęcia danych decyzji kadrowych. W razie stwierdzenia naruszenia zasady równego traktowania w zatrudnieniu czy naruszenia przepisów prawa, w tym dotyczących ochrony danych osobowych (naruszenie RODO) - pracownicy mogą dochodzić swoich praw (w tym odszkodowania) przed sądem pracy, czy też skierować skargę do Prezesa Urzędu Ochrony Danych Osobowych. Kwestionowane przed sądem pracy mogą być także poszczególne decyzje pracodawcy - w szczególności związane z wypowiedzeniem umowy o pracę, czy też z konsekwencjami finansowymi (np. pozbawienie premii).
Masz wątpliwości dotyczące działań firmy, która cię zatrudnia? Nie wiesz jak postąpić w sporze z pracodawcą, jakie możliwości pozostawia ci prawo pracy? A może po prostu jest temat, który cię nurtuje i chcesz poznać zastosowanie bieżących przepisów? Prześlij swoje pytania mailem: serwispraca@trojmiasto.pl. Na pytania czytelników odpowiadać będą radcy z trójmiejskich kancelarii. Odpowiedzi na wybrane pytania publikowane będą w Serwisie Praca portalu Trojmiasto.pl
Najczęściej zadawane pytania
O autorze
Andrzej Fortuna
radca prawny z kancelarii Radcy Prawnego Fortuna
Miejsca
Opinie wybrane
-
2026-02-15 13:20
Ocena jest subiektywna a AI moze być tylko podpowiedzią (2)
- 7 2
-
2026-02-15 17:09
Subiektywna jest tylko i wyłącznie ocena kudzka (1)
Ona zna pojęcia uprzedzenia i kumoterstwa
O nepotyzmie nie wspominając
A właśnie takie filtry utrzymuje oceniający człowiek nie mówiąc już o chwilowym humorze lub jego braku- 3 0
-
2026-02-16 10:29
Tak wyglądaj interakcje między ludźmi, być może Twój punkt widzenia wiąże się z brakiem socjalizacji
- 0 0
-
2026-02-15 13:02
AI jesd bardziej obiektywne od człowieka (8)
Co do sprawiedliwosci oceny przez AI to ponpierwsze jest to rzecz subiektywna czesto nawet bez AI inaczej ppstrzegana przez pracownika inaczej przez szefa, ale jesli chodzi o AI jesli model jest dobrze dobrany (z dokladnkścią ponad 99%) , to taki system oparty na AI jest szybszy, bardziej obketywny i bardziej sprawidliwy. Zły model nie powinien być w ogóle stosowany do rozwiązań, ktore na cokolwiek wpływają
- 4 33
-
2026-02-16 10:26
Głupi
Jestes
- 1 1
-
2026-02-16 09:50
A co za problem wytrenować model tak żeby nie przeszkadzał nepotyzmowi? (1)
Skoro nie można zajrzeć "do środka", nie można uznać modeli za obiektywne.
- 3 1
-
2026-02-16 13:19
problem bo aby wytrenować model musisz mieć dane
czyli w danych wejściowych musi być informaacje o nepotyźmie, i zależność oceny od tego nepotyzmu, a takich danych jestem przekonany nigdzie nie ma, bo zbieranie takch danych to jak ogłoszenie wprost, że w firmie jest nepotyzm
- 0 0
-
2026-02-15 17:05
AI nie zna pojęcia kumoterstwa i nepotyzmu (2)
- 4 1
-
2026-02-16 10:30
(1)
AI nie zna żadnych pojęć, po prostu podaje informacje które zostały jej zaimplementowane
- 2 0
-
2026-02-16 13:20
a w jakich firmowych danych znajdziesz info o nepotyzmie i kumoterstwie?
- 0 1
-
2026-02-15 16:53
Nie AI tylko SI. (1)
- 1 3
-
2026-02-16 09:49
Nie żadne SI, tylko LLM.
Nie mamy SI.
- 1 0
-
2026-02-16 22:35
(1)
Kij ma 2 konce. Predzej czy pozniej AI bedzie mogla mnie udawac, wiec zaczne ja wypuszczac na spotkania. Obecnie przyspiesza prace o jakies 30% ale z czasem bedzie pewnie lepiej, wiec moja aktywnosc ograniczy sie do koorgynowania moich awatarow, ktore beda szukaly w moim imieniu pracy i tych, ktore juz te prace beda wykonywac. Skoro firmy moga sobie robic ze mnie kpiny to uwazam, ze ja tez moge.
- 1 1
-
2026-02-17 08:39
Firma wytnie pośrednika - czyli ciebie
- 2 0
Portal trojmiasto.pl nie ponosi odpowiedzialności za treść opinii.