Biznes

Granice legalnego monitoringu pracowników z wykorzystaniem sztucznej inteligencji

16 lipiec 2025

Sztuczna inteligencja coraz częściej wspiera pracodawców w monitorowaniu i ocenie pracy, ale jej wykorzystanie wiąże się z istotnymi wyzwaniami prawnymi i etycznymi. W odpowiedzi na te zagrożenia Unia Europejska przyjęła AI Act – nowe rozporządzenie, które wprowadza jasne zasady odpowiedzialnego stosowania AI, szczególnie w obszarze zatrudnienia. Kluczowe znaczenie zyskują takie kwestie jak transparentność, nadzór człowieka, eliminowanie algorytmicznej dyskryminacji oraz ochrona praw pracowników.


Na początku był klasyczny monitoring


W dobie rosnącego znaczenia bezpieczeństwa oraz potrzeby ochrony mienia i informacji, coraz więcej pracodawców decyduje się na stosowanie monitoringu w miejscu pracy. Choć technologia pozwala na coraz szerszą kontrolę, polskie prawo jasno określa, w jakich granicach taka kontrola może się odbywać. Monitoring w zakładzie pracy, zarówno wizyjny, jak i elektroniczny (np. poczty służbowej) jest dopuszczalny, ale obwarowany licznymi obowiązkami po stronie pracodawcy. Regulacje te mają na celu zachowanie równowagi między interesami pracodawcy a prawem pracownika do prywatności i ochrony danych osobowych. Zasady te zostały szczegółowo uregulowane w Kodeksie pracy, ustawie o ochronie danych osobowych oraz unijnym rozporządzeniu RODO. Jednak rozwój technologii posuwa się tak szybko, że trudno zanim nadążyć prawodawcom. Rozwiązania, jakie oferuje sztuczna inteligencja w zakresie monitoringu pracowniczego, jest tego najlepszym przykładem.

Aby uchwycić dobrze moment wejścia AI w monitoring w firmie, przypomnijmy na czym polega klasyczny monitoring w zakładzie pracy. Najprościej rzecz ujmując jest to system nadzoru wizyjnego, który polega na rejestrowaniu obrazu (czasem także dźwięku) za pomocą kamer zainstalowanych w różnych częściach miejsca pracy. Najczęściej obejmuje on wejścia i wyjścia z budynków, hale produkcyjne, magazyny, korytarze, recepcje czy parkingi, czyli przestrzenie ogólnodostępne lub szczególnie istotne z punktu widzenia bezpieczeństwa.

Monitoring w zakładzie pracy pełni kilka kluczowych funkcji:

  1. zapewnienie bezpieczeństwa pracowników – obecność kamer działa prewencyjnie i może zapobiegać zachowaniom niepożądanym np. agresji czy kradzieżom;
  2. ochrona mienia pracodawcy – rejestracja obrazu pozwala ograniczyć ryzyko strat materialnych i umożliwia identyfikację sprawców w przypadku incydentów;
  3. kontrola procesu pracy – w niektórych branżach monitoring wspiera nadzór nad przebiegiem produkcji i przestrzeganiem zasad BHP;
  4. zachowanie poufności informacji – kamery mogą być narzędziem ochrony danych i know-how, zwłaszcza w firmach o wysokim poziomie tajemnicy handlowej.

Choć monitoring może wydawać się narzędziem kontroli, jego głównym celem jest podniesienie poziomu bezpieczeństwa i uporządkowanie procesów organizacyjnych. Kluczowe jednak, by był stosowany zgodnie z przepisami i z poszanowaniem prywatności pracowników.

Opisana powyżej kontrola, czyli monitoring, objęta jest konkretnymi regulacjami prawnymi. Oznacza to, że pracodawca nie wszystko może i jego kontrola musi odbywać się w granicach prawa. Polskie prawo dopuszcza stosowanie monitoringu w zakładzie pracy, ale nakłada na pracodawcę szereg obowiązków związanych z ochroną prywatności pracowników. Główne zasady regulujące to zagadnienie znajdują się w:

  1. Kodeksie pracy (art. 222–223),
  2. Ustawie o ochronie danych osobowych,
  3. RODO (Rozporządzenie UE 2016/679). 

I pojawiła się sztuczna inteligencja


Czy tego chcemy, czy nie, sztuczna inteligencja (AI) jest coraz bardziej obecna w naszym życiu, zarówno tym prywatnym, jak i zawodowym. Nowoczesne technologie oparte na sztucznej inteligencji coraz częściej wykorzystywane są przez pracodawców do dokładnego monitorowania pracy swoich pracowników, zarówno w zakresie wykonywania zadań, jak i ogólnej efektywności. Ze względu na rosnącą popularność takich narzędzi, ale też związane z nimi ryzyko, pojawiła się potrzeba wprowadzenia jasnych przepisów, które nakierują pracodawców na odpowiedzialne i zgodne z prawem korzystanie z AI. Celem tych regulacji jest przede wszystkim ochrona praw pracowników. Chodzi o to, by wykorzystanie sztucznej inteligencji nie prowadziło do nadużyć. Jednym z kluczowych dokumentów regulujących tę kwestię jest tzw. AI Act, czyli Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r., które wprowadza jednolite zasady stosowania AI w całej Unii Europejskiej.

Zgodnie z przyjętymi przepisami, systemy sztucznej inteligencji wykorzystywane w obszarze zatrudnienia np. do zarządzania pracownikami, oceny ich pracy czy monitorowania, zostały zakwalifikowane jako technologie wysokiego ryzyka. Oznacza to, że ich stosowanie wiąże się z dużym wpływem na życie zawodowe ludzi: może decydować o ich karierze, dochodach, a także wpływać na przestrzeganie ich praw pracowniczych. Dlatego wymagają one szczególnej ostrożności i odpowiednich zabezpieczeń.

AI Act wprowadza konkretne zasady, które mają zapewnić, że sztuczna inteligencja będzie wykorzystywana zgodnie z prawem i z poszanowaniem praw osób, których dane są przetwarzane. Jednym z najważniejszych wymogów jest to, że systemy AI muszą pozostawać pod nadzorem człowieka, a ich działanie powinno być regularnie kontrolowane przez osoby fizyczne.

Poza spełnianiem formalnych wymagań związanych z wdrażaniem AI w firmach, kluczowe jest, by systemy te były używane w sposób, który chroni prywatność i wolność jednostki. Konieczne jest też wprowadzenie skutecznych mechanizmów kontroli i nadzoru, zwłaszcza tam, gdzie działania sztucznej inteligencji mogą mieć realny wpływ na życie ludzi, ich sytuację zawodową czy dostęp do usług.

Odpowiedzialność pracodawcy


Należy pamiętać, że sztuczna inteligencja jest narzędziem za wykorzystanie, którego nadal odpowiada człowiek. Jednym z poważniejszych wyzwań związanych z wykorzystaniem sztucznej inteligencji w miejscu pracy jest ryzyko tzw. dyskryminacji algorytmicznej. Chodzi o sytuacje, w których system AI, choć wydaje się obiektywny, powiela istniejące uprzedzenia obecne w danych, na których został wytrenowany. Przykładowo, algorytm rekrutacyjny może automatycznie odrzucać kobiety aplikujące na stanowiska techniczne, jeśli jego decyzje opierają się na danych historycznych, gdzie dominowali mężczyźni. Podobnie, system oceniający wydajność może niesprawiedliwie traktować osoby z niepełnosprawnościami, które – choć pracują wolniej – wykonują swoje obowiązki równie skutecznie.

Aby uniknąć takich niepożądanych efektów, pracodawcy muszą wdrażać AI w sposób odpowiedzialny i zgodny z przepisami prawa pracy. Już na etapie planowania należy przeprowadzić ocenę ryzyka, analizując nie tylko aspekty techniczne działania algorytmu, ale również jego wpływ społeczny i potencjalne konsekwencje dla praw pracowników. Tylko takie podejście pozwoli na bezpieczne i sprawiedliwe wykorzystanie sztucznej inteligencji w środowisku pracy. 
Jednym z kluczowych warunków odpowiedzialnego wykorzystania sztucznej inteligencji w miejscu pracy jest zapewnienie transparentności. Pracownicy oraz kandydaci do pracy powinni być jasno i rzetelnie informowani, że ich dane są analizowane przez systemy automatyczne. Należy im również wyjaśnić, jakie dane są przetwarzane, w jakim celu, na jakiej podstawie prawnej oraz jak długo będą przechowywane. Brak takiej przejrzystości może prowadzić nie tylko do naruszenia przepisów o ochronie danych osobowych, ale także do utraty zaufania i poczucia bezpieczeństwa w środowisku pracy.

Równie istotne jest regularne audytowanie algorytmów, zarówno przed ich wdrożeniem, jak i w trakcie stosowania. Pracodawca powinien upewnić się, że dane treningowe nie zawierają uprzedzeń, a sam algorytm działa w sposób sprawiedliwy i nie dyskryminuje żadnej grupy. W praktyce wymaga to zaangażowania specjalistów z zakresu etyki AI, analizy danych, compliance oraz ochrony danych osobowych.

Najważniejszy jest człowiek


Kolejnym zabezpieczeniem przed błędnymi lub niesprawiedliwymi decyzjami AI jest utrzymanie nadzoru człowieka, czyli zasada „human in the loop”. Oznacza to, że kluczowe decyzje dotyczące zatrudnienia, awansów, wynagrodzeń czy zwolnień nie powinny być podejmowane wyłącznie przez algorytm. Człowiek, z odpowiednim przygotowaniem i wiedzą, musi mieć możliwość oceny sytuacji, wzięcia pod uwagę kontekstu i podjęcia decyzji zgodnej z prawem oraz zasadami sprawiedliwości.
Nie można też zapominać o przygotowaniu całej organizacji do zmian związanych z wdrożeniem sztucznej inteligencji. Obejmuje to szkolenia dla działu HR i kadry zarządzającej w zakresie etycznego i prawnego wykorzystania AI, a także współpracę z działem prawnym i inspektorem ochrony danych. Dobrym rozwiązaniem może być opracowanie wewnętrznej polityki odpowiedzialnego korzystania z AI, która określi obowiązki informacyjne, procedury interwencji w przypadku błędów systemu oraz zasady oceny jego skuteczności i wpływu na pracowników.

Wykorzystanie sztucznej inteligencji w miejscu pracy niesie ze sobą zarówno duży potencjał, jak i poważne ryzyka – zwłaszcza dla praw pracowników. Dlatego kluczowe znaczenie ma odpowiedzialne wdrażanie takich systemów z zapewnieniem transparentności, nadzoru człowieka, regularnych audytów i oceny ryzyka. AI nie może działać w oderwaniu od kontekstu społecznego ani zastępować ludzkiego osądu w decyzjach o zatrudnieniu. Pracodawcy powinni zadbać o jasne procedury, szkolenia oraz współpracę z ekspertami, by uniknąć dyskryminacji algorytmicznej i chronić prawa zatrudnionych.

Autor: Monika Łysek, Redaktor WERBEO