- AI policzy, ile kaw zrobiłeś
- AI nie tylko patrzy – ona ocenia
- Co mówi polskie prawo?
- Sąd pracy i dowody z AI – wielki znak zapytania
- Ryzyko dyskryminacji i uprzedzeń
AI policzy, ile kaw zrobiłeś
Dyskusję w gronie osób zajmujących się sztuczną inteligencją wywołał film prezentowany w mediach społecznościowych. Na nagraniu widać pracowników kawiarni i siedzących klientów, a algorytm na bieżąco ocenia wydajność personelu. Sztuczna inteligencja liczy także czas spędzony przez klientów, przelicza przygotowane kubki kawy, mierzy dystans pokonywany przez baristów i potrafi wyciągać z tego długoterminowe wnioski. W efekcie potrafi nie tylko wskazać, które procesy w pracy można poprawić, ale też zidentyfikować „najmniej efektywnego” pracownika.
AI nie tylko patrzy – ona ocenia
Kamery przemysłowe w biurach czy magazynach nie są nowością. Nowością jest to, że sztuczna inteligencja potrafi w czasie rzeczywistym analizować nagrania i tworzyć z nich raporty o wydajności. Pracodawcy kuszeni są wizją wykresów pokazujących, kto „marnuje czas”, a kto „pracuje wzorowo”. Jednak takie rozwiązanie to nie tylko efektywność – to także ryzyko błędów, halucynacji algorytmów i narażenie na poważne konsekwencje prawne.
Co mówi polskie prawo?
W Polsce monitoring pracowników jest regulowany Kodeksem pracy (art. 222–223). Pracodawca musi jasno określić cele, zakres i sposób monitoringu w regulaminie pracy i poinformować o tym pracowników. Nie wolno nikogo podglądać po kryjomu, a tym bardziej analizować jego prywatnych danych bez wiedzy i zgody.
Trzeba jednak zaznaczyć, że AI w omawianym zakresie działa na razie w swoistej „szarej strefie”: przepisy mówią o kamerach i systemach, ale nie precyzują, co z AI, które te dane automatycznie interpretują.
Art. 222. § 1. Jeżeli jest to niezbędne do zapewnienia bezpieczeństwa pracowników lub ochrony mienia lub kontroli produkcji lub zachowania w tajemnicy informacji, których ujawnienie mogłoby narazić pracodawcę na szkodę, pracodawca może wprowadzić szczególny nadzór nad terenem zakładu pracy lub terenem wokół zakładu pracy w postaci środków technicznych umożliwiających rejestrację obrazu (monitoring).
(...)
Sąd pracy i dowody z AI – wielki znak zapytania
Wyobraźmy sobie sytuację: pracodawca zwalnia pracownika dyscyplinarnie. Dochodzi do sporu i w sądzie pracy pracodawca przedstawia dowód w postaci wykresów wygenerowanych przez AI na podstawie nagrań z kamer. Jak zareaguje polski sąd pracy? Na razie nie wiadomo. Polskie orzecznictwo nie zna jeszcze podobnych przypadków. Prawnicy ostrzegają jednak, że sztuczna inteligencja nie zwalnia pracodawcy z odpowiedzialności – a błędy algorytmu mogą kosztować więcej niż przyniosą oszczędności.
Ryzyko dyskryminacji i uprzedzeń
AI nie jest obiektywna. Algorytmy uczą się na danych, które często zawierają ludzkie uprzedzenia. Przykład? Jedna z największych firm IT na świecie musiała wycofać system rekrutacyjny, który faworyzował mężczyzn i dyskryminował kobiety. W polskim prawie każda forma dyskryminacji – także algorytmiczna – jest zakazana (art. 183a K.p.). Jeśli więc pracownik poczuje się pokrzywdzony przez „decyzję AI”, pracodawca będzie musiał udowodnić, że system działał neutralnie i zgodnie z prawem.
Ostrzeżenie dla pracowników i pracodawców
AI może pomóc w analizie pracy, ale równie dobrze może stać się narzędziem nadużyć. W tle mamy nie tylko kwestie prywatności, ale też potencjalne procesy sądowe, których finał jest trudny do przewidzenia. Dlatego zanim firmy zdecydują się na wdrożenie takich rozwiązań, powinny pamiętać, że pracownicy to nie „zbiory danych”, a błędna analiza algorytmu może zniszczyć czyjąś karierę.
Spójrzcie na głos w tej sprawie Noama Schwarza – prezesa ActiveFence, specjalisty od bezpieczeństwa AI, który swoją karierę zaczynał w izraelskim wywiadzie. On informując o tym zastosowaniu AI ostrzega: sztuczna inteligencja w monitoringu ma ogromny potencjał, ale też ogromne ryzyko. To narzędzie, które wymaga jasnych granic, przejrzystości i kontroli – inaczej może zaszkodzić bardziej, niż pomóc.