Uważaj w pracy! Kamery patrzą, a sztuczna inteligencja liczy Twoje ruchy

Ten tekst przeczytasz w 4 minuty
16 września 2025, 10:14
[aktualizacja 16 września 2025, 10:39]
AI ocenia obraz z kamer w pracy
AI ocenia obraz z kamer w pracy/LinkedIn
Pracodawcom już nie wystarczy podglądanie kamerami pracowników. Do gry wchodzi sztuczna inteligencja, która potrafi nie tylko obserwować, ale i analizować zachowania zatrudnionych. To może oznaczać rewolucję w świecie pracy, ale także poważne zagrożenia. Bo jeśli decyzje o Twojej efektywności podejmie AI, to kto zagwarantuje, że nie pomyli się na Twoją niekorzyść?

AI policzy, ile kaw zrobiłeś

Dyskusję w gronie osób zajmujących się sztuczną inteligencją wywołał film prezentowany w mediach społecznościowych. Na nagraniu widać pracowników kawiarni i siedzących klientów, a algorytm na bieżąco ocenia wydajność personelu. Sztuczna inteligencja liczy także czas spędzony przez klientów, przelicza przygotowane kubki kawy, mierzy dystans pokonywany przez baristów i potrafi wyciągać z tego długoterminowe wnioski. W efekcie potrafi nie tylko wskazać, które procesy w pracy można poprawić, ale też zidentyfikować „najmniej efektywnego” pracownika.

AI nie tylko patrzy – ona ocenia

Kamery przemysłowe w biurach czy magazynach nie są nowością. Nowością jest to, że sztuczna inteligencja potrafi w czasie rzeczywistym analizować nagrania i tworzyć z nich raporty o wydajności. Pracodawcy kuszeni są wizją wykresów pokazujących, kto „marnuje czas”, a kto „pracuje wzorowo”. Jednak takie rozwiązanie to nie tylko efektywność – to także ryzyko błędów, halucynacji algorytmów i narażenie na poważne konsekwencje prawne.

AI liczy nawet odległosc pokonywaną przez pracowników
AI liczy nawet odległosc pokonywaną przez pracowników/kadr z filmu

Co mówi polskie prawo?

W Polsce monitoring pracowników jest regulowany Kodeksem pracy (art. 222–223). Pracodawca musi jasno określić cele, zakres i sposób monitoringu w regulaminie pracy i poinformować o tym pracowników. Nie wolno nikogo podglądać po kryjomu, a tym bardziej analizować jego prywatnych danych bez wiedzy i zgody.

Trzeba jednak zaznaczyć, że AI w omawianym zakresie działa na razie w swoistej „szarej strefie”: przepisy mówią o kamerach i systemach, ale nie precyzują, co z AI, które te dane automatycznie interpretują.

Podstawa prawa

Art. 222. § 1. Jeżeli jest to niezbędne do zapewnienia bezpieczeństwa pracowników lub ochrony mienia lub kontroli produkcji lub zachowania w tajemnicy informacji, których ujawnienie mogłoby narazić pracodawcę na szkodę, pracodawca może wprowadzić szczególny nadzór nad terenem zakładu pracy lub terenem wokół zakładu pracy w postaci środków technicznych umożliwiających rejestrację obrazu (monitoring).
(...)

Zakład monitorowany a AI
Zakład monitorowany a AI/prompt Sławomir Biliński/obraz ChatGPT

Sąd pracy i dowody z AI – wielki znak zapytania

Wyobraźmy sobie sytuację: pracodawca zwalnia pracownika dyscyplinarnie. Dochodzi do sporu i w sądzie pracy pracodawca przedstawia dowód w postaci wykresów wygenerowanych przez AI na podstawie nagrań z kamer. Jak zareaguje polski sąd pracy? Na razie nie wiadomo. Polskie orzecznictwo nie zna jeszcze podobnych przypadków. Prawnicy ostrzegają jednak, że sztuczna inteligencja nie zwalnia pracodawcy z odpowiedzialności – a błędy algorytmu mogą kosztować więcej niż przyniosą oszczędności.

Ryzyko dyskryminacji i uprzedzeń

AI nie jest obiektywna. Algorytmy uczą się na danych, które często zawierają ludzkie uprzedzenia. Przykład? Jedna z największych firm IT na świecie musiała wycofać system rekrutacyjny, który faworyzował mężczyzn i dyskryminował kobiety. W polskim prawie każda forma dyskryminacji – także algorytmiczna – jest zakazana (art. 183a K.p.). Jeśli więc pracownik poczuje się pokrzywdzony przez „decyzję AI”, pracodawca będzie musiał udowodnić, że system działał neutralnie i zgodnie z prawem.

Ostrzeżenie dla pracowników i pracodawców

AI może pomóc w analizie pracy, ale równie dobrze może stać się narzędziem nadużyć. W tle mamy nie tylko kwestie prywatności, ale też potencjalne procesy sądowe, których finał jest trudny do przewidzenia. Dlatego zanim firmy zdecydują się na wdrożenie takich rozwiązań, powinny pamiętać, że pracownicy to nie „zbiory danych”, a błędna analiza algorytmu może zniszczyć czyjąś karierę.

kamera monitoring

Spójrzcie na głos w tej sprawie Noama Schwarza – prezesa ActiveFence, specjalisty od bezpieczeństwa AI, który swoją karierę zaczynał w izraelskim wywiadzie. On informując o tym zastosowaniu AI ostrzega: sztuczna inteligencja w monitoringu ma ogromny potencjał, ale też ogromne ryzyko. To narzędzie, które wymaga jasnych granic, przejrzystości i kontroli – inaczej może zaszkodzić bardziej, niż pomóc.

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło: forsal.pl
Zapisz się na newsletter
Zapraszamy na newsletter Forsal.pl zawierający najważniejsze i najciekawsze informacje ze świata gospodarki, finansów i bezpieczeństwa.

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj