Sztuczna inteligencja w środowisku pracy: jakie technologie są zakazane, jakie ryzyka ponosi pracodawca i gdzie przebiegają granice dopuszczalności
Przedsiębiorstwa coraz częściej wdrażają narzędzia AI w obszarze zarządzania zasobami ludzkimi: systemy automatycznej selekcji kandydatów, algorytmy oceny produktywności, prognozowania rotacji pracowników, analizy zachowań oraz przydzielania zadań na podstawie indywidualnych cech.
Rozwiązania te obiecują obiektywizm i efektywność, jednak w europejskich ramach prawnych ich stosowanie bezpośrednio wiąże się z wymogami rozporządzenia o sztucznej inteligencji (EU AI Act) oraz RODO, które wyznaczają granice dopuszczalnego przetwarzania danych osobowych. Ponieważ w toku stosunku pracy dochodzi nieuchronnie do ingerencji w prawa pracowników, znaczenie tych regulacji jest szczególnie istotne.
Jeżeli przedsiębiorstwo korzysta z narzędzi automatycznie analizujących cyfrową aktywność pracowników, wykonywanie przez nich zadań lub komunikację służbową, procesy takie z dużym prawdopodobieństwem zostaną zakwalifikowane jako profilowanie – co uruchamia szczególne mechanizmy ochrony prawnej.
Zakaz rozpoznawania emocji w miejscu pracy
Jednym z najbardziej rygorystycznych postanowień EU AI Act jest bezwzględny zakaz stosowania systemów rozpoznawania emocji w środowisku pracy oraz w placówkach edukacyjnych. Artykuł 5 ust. 1 lit. f wprost zakazuje wprowadzania do obrotu, oddawania do użytku oraz stosowania systemów AI przeznaczonych do wykrywania stanu emocjonalnego człowieka w tych kontekstach. Wyjątek przewidziano wyłącznie dla celów medycznych lub związanych z bezpieczeństwem.
Zakaz ten opiera się na trzech fundamentalnych przesłankach.
- Ryzyko manipulacji i dyskryminacji. Narzędzie, określające „lojalność”, „odporność na stres” lub „zaangażowanie” pracownika na podstawie mimiki lub intonacji stwarza przestrzeń do subiektywnych i potencjalnie stronniczych decyzji kadrowych.
- Sporna wiarygodność naukowa. Systemy rozpoznawanie emocji opierają się na modelach probabilistycznych i nie są w stanie zagwarantować obiektywnej interpretacji wewnętrznego stanu człowieka.
- Poważna ingerencja w prywatność. Analiza mimiki i głosu w toku pracy jest szczególnie dolegliwa z uwagi na strukturalną nierównowagę w relacji pracownik–pracodawca.
Dla pracodawców zakaz ten oznacza, że stosowanie technologii analizy emocji pracowników – na przykład podczas wideokonferencji lub rozmów kwalifikacyjnych – będzie w zdecydowanej większości przypadków bezprawne. Co istotne, ani zgoda pracownika, ani żadna inna podstawa przetwarzania przewidziana w RODO nie mają tu znaczenia: zakaz obowiązuje niezależnie od nich.
Systemy wysokiego ryzyka w obszarze zatrudnienia
Poza zakazami bezwzględnymi EU AI Act wprowadza kategorię systemów wysokiego ryzyka. Zgodnie z art. 6 oraz Załącznikiem III do rozporządzenia zaliczają się do nich narzędzia AI wykorzystywane do podejmowania decyzji dotyczących nawiązania, przebiegu lub rozwiązania stosunku pracy, przydzielania zadań na podstawie cech osobistych, a także monitorowania i oceny zachowania oraz wydajności pracowników.
Jeżeli system dokonuje profilowania — tj. zautomatyzowanego przetwarzania danych w celu oceny różnych aspektów dotyczących osoby, w tym rzetelności, efektywności lub zachowania — automatycznie podlega reżimowi wysokiego ryzyka.
Oznacza to, że jego twórca i dostawca systemu są zobowiązani do wdrożenia systemu zarządzania ryzykiem, zapewnienia jakości danych, sporządzenia dokumentacji technicznej, przewidzenia mechanizmów przejrzystości i nadzoru człowieka, zagwarantowania cyberbezpieczeństwa oraz zarejestrowania systemu w europejskiej bazie danych. Pracodawca korzystający z takiego narzędzia ponosi ponadto samodzielne obowiązki w zakresie jego prawidłowego wdrożenia i kontroli.
W praktyce większość narzędzi HR stosowanych do rekrutacji, oceny wyników lub monitorowania pracowników może zostać zakwalifikowana jako system wysokiego ryzyka w rozumieniu EU AI Act.
Zautomatyzowane decyzje w HR: ograniczenia wynikające z art. 22 RODO
Równolegle zastosowanie znajduje art. 22 RODO, który przyznaje osobie prawo do tego, aby nie podlegała decyzji opartej wyłącznie na zautomatyzowanym przetwarzaniu danych, jeżeli decyzja ta wywołuje wobec niej skutki prawne lub w podobny sposób istotnie na nią wpływa.
Jeżeli AI automatycznie tworzy ranking pracowników, ocenia ich wydajność lub generuje rekomendacje dotyczące zwolnienia albo awansu, a człowiek jedynie formalnie zatwierdza wynik bez rzeczywistej weryfikacji merytorycznej – taka decyzja może zostać uznana za w pełni zautomatyzowaną. W takim przypadku korzystanie z systemu jest możliwe wyłącznie przy zapewnieniu rzeczywistego udziału człowieka w procesie decyzyjnym oraz przy istnieniu jednej ze szczególnych podstaw przewidzianych w RODO: konieczności wykonania umowy, wyraźnego upoważnienia ustawowego albo wyraźnej zgody osoby, której dane dotyczą. W stosunkach pracy stosowanie tych wyjątków jest jednak wyjątkowo ograniczone i wymaga ścisłej wykładni.
Dla zilustrowania tych zasad warto rozważyć dotyczące trzy scenariusze dotyczące nagrywania służbowych wideorozmów.
- Nagrywanie bez użycia AI. Przy prawidłowej ocenie równowagi interesów i zapewnieniu przejrzystości takie przetwarzanie może być dopuszczalne. Wskazane jest przeprowadzenie oceny skutków dla ochrony danych (DPIA).
- Nagranie wykorzystywane przez AI do analizy wydajności – bez rozpoznawania emocji. System może zostać zakwalifikowany jako wysokiego ryzyka na podstawie EU AI Act. Na pracodawcy ciąży obowiązek zapewnienia nadzoru człowieka oraz zgodności z art. 22 RODO.
- Nagranie uzupełnione o analizę emocji pracowników. Jeżeli celem jest ocena pracownika, takie zastosowanie podpada pod bezwzględny zakaz z art. 5 ust. 1 lit. f EU AI Act i nie może zostać zalegalizowane – ani w oparciu o prawnie uzasadniony interes, ani na podstawie zgody.
Jeżeli Państwa firma korzysta z narzędzi AI w obszarze rekrutacji, oceny wyników lub monitorowania pracowników, REVERA zaleca przeprowadzenie weryfikacji prawnej ich zgodności z EU AI Act i RODO – przed wdrożeniem lub rozszerzeniem skali ich stosowania.
Author: Artem Handriko, Liudmila Yepikhava.
Contact a lawyer for further information
Contact a lawyer